昨天 frontier
VLA 線 · DEEP DIVE ARCHIVEVLA 线 · DEEP DIVE ARCHIVE
VLA 深度追蹤VLA 深度追踪
Vision-Language-Action:讓機器人看→想→做的端到端模型Vision-Language-Action:让机器人看→想→做的端到端模型
METHOD FAMILY TRENDS
FAMILY 10D CHART SHARE Δ MOM VOL ST
RL Fine-tuning 24.1% +15.5 1.29 27 ●
World Model 12.5% +7.3 1.26 14 ●
Flow Matching 8.0% +1.1 1.06 9 ●
Tactile 5.4% -1.5 0.92 6 ●
Dexterous Hand 4.5% -5.8 0.69 5 ●
Diffusion Policy 3.6% +0.2 1.02 4 ●
Instr. Tuning 1.8% +1.8 1.53 2 ◉
Cross-Embodiment 0.9% +0.9 0.89 1 ●
MOMENTUM GAUGE
decel 1.0 accel
Instr. Tuning 1.53 ACCEL
RL Fine-tune 1.29
World Model 1.26
Flow Matching 1.06
Diffusion Pol. 1.02
Tactile 0.92
Cross-Embod. 0.89
Dext. Hand 0.69 DECEL
COMPETITION PAIRS
ACTION HEAD ROUTE
Diffusion Pol. vs Flow Matching
3.6% · x1.02 ratio 0.45 8.0% · x1.06
POST-TRAINING ROUTE
Instr. Tuning vs RL Fine-tune
1.8% · x1.53 ratio 0.07 24.1% · x1.29
📐 理論文章庫📐 理论文章库
查看 GitHub 全庫查看 GitHub 全库 → 最近 2 週最近 2 周 104 篇
昨天 frontier
更新成本摊销:Doc-to-LoRA / Text-to-LoRA 让 LLM “瞬时内化” (Cost Amortization for Instant LLM Updates)
在 GitHub 閱讀在 GitHub 阅读 昨天 frontier
Lightning Grasp:Contact Field 驱动的超高速灵巧手抓取合成 (Lightning Grasp: Procedural Grasp Synthesis with Contact Fields)
在 GitHub 閱讀在 GitHub 阅读 昨天 frontier
VLA 将死,WAM 当立?2026 三路线综述 (Will WAM Replace VLA? A 2026 Three-Route Overview)
在 GitHub 閱讀在 GitHub 阅读 2 天前 act
ACT: 动作分块变换器 (Action Chunking with Transformers)
在 GitHub 閱讀在 GitHub 阅读 2 天前 action_representations
动作生成范式详解 (Action Representations & Generation)
在 GitHub 閱讀在 GitHub 阅读 2 天前 agent_world_model_infinity_synthetic_environments_for_agenti_dissection
Agent World Model:无限合成环境赋能智能体强化学习 (Agent World Model: Infinity Synthetic Environments for Agentic Reinforcement Learning)
在 GitHub 閱讀在 GitHub 阅读 2 天前 alignment_vla
VLA 的安全、对齐与约束决策 (Safety & Alignment for VLA)
在 GitHub 閱讀在 GitHub 阅读 2 天前 causalgdp_causality_guided_diffusion_policies_for_reinforcem_dissection
CausalGDP:因果引导的扩散策略用于强化学习 (CausalGDP: Causality-Guided Diffusion Policies for Reinforcement Learning)
在 GitHub 閱讀在 GitHub 阅读 2 天前 chain_of_thought
思维链推理 (Chain-of-Thought Reasoning)
在 GitHub 閱讀在 GitHub 阅读 2 天前 co_training
联合训练 (Co-training)
在 GitHub 閱讀在 GitHub 阅读 2 天前 data
数据处理 (Data Processing)
在 GitHub 閱讀在 GitHub 阅读 2 天前 dcp_convexity_rules
DCP:凸性检测规则与 CVX/CVXPY 建模心法 (Disciplined Convex Programming)
在 GitHub 閱讀在 GitHub 阅读 2 天前 dexterous_hand_mechanics
灵巧手机械学深度解析 (Dexterous Hand Mechanics) — 修订整合版 v2
在 GitHub 閱讀在 GitHub 阅读 2 天前 diffusion_policy
扩散策略详解 (Diffusion Policy)
在 GitHub 閱讀在 GitHub 阅读 2 天前 dora_weight_decomposed_low_rank_adaptation
DoRA:权重分解的低秩适配 (DoRA: Weight-Decomposed Low-Rank Adaptation)
在 GitHub 閱讀在 GitHub 阅读 2 天前 dreamzero_world_action_models_zero_shot_policies_2026
DreamZero:世界动作模型即零样本策略 (World Action Models are Zero-shot Policies)
在 GitHub 閱讀在 GitHub 阅读 2 天前 evaluation
评估体系详解 (Evaluation Protocols Deep Dive)
在 GitHub 閱讀在 GitHub 阅读 2 天前 fast
FAST: 高效动作 Token 化
在 GitHub 閱讀在 GitHub 阅读 2 天前 flash_attention
Flash Attention: 高效 Transformer 推理的关键
在 GitHub 閱讀在 GitHub 阅读 2 天前 frontier
ABot-M0:动作流形学习的 VLA 基础模型 (ABot-M0: VLA Foundation Model with Action Manifold Learning)
在 GitHub 閱讀在 GitHub 阅读 2 天前 frontier
RoboGene: 通过多样性驱动的智能体框架提升 VLA 预训练 (Boosting VLA Pre-training via Diversity-Driven Agentic Framework for Real-World Task Generation)
在 GitHub 閱讀在 GitHub 阅读 2 天前 frontier
经典 GNN 仍然很强:节点分类基线再评估 (Classic GNNs are Strong Baselines for Node Classification)
在 GitHub 閱讀在 GitHub 阅读 2 天前 frontier
Ctrl-World × WorldArena:可控世界模型与“真干活”评测 (Ctrl-World & WorldArena)
在 GitHub 閱讀在 GitHub 阅读 2 天前 frontier
具身智能深度:数据飞轮与跨模态迁移 (Data Flywheel & Cross-modal Transfer)
在 GitHub 閱讀在 GitHub 阅读 2 天前 frontier
中金人机系列05(灵巧手)→ VLA/控制/硬件的“可计算约束”框架(理论侧整理)
在 GitHub 閱讀在 GitHub 阅读 2 天前 frontier
机器人开可乐/发牌有多难?灵巧手:硬件路线 × 接触数学 × 数据金字塔(访谈摘录整理)
在 GitHub 閱讀在 GitHub 阅读 2 天前 frontier
DKT: 基于视频扩散先验的透明物体感知 (Diffusion Knows Transparency)
在 GitHub 閱讀在 GitHub 阅读 2 天前 frontier
Figure Helix 02:全身端到端 VLA 的“运动-操作一体化”架构 (Helix 02: Full-Body Autonomy)
在 GitHub 閱讀在 GitHub 阅读 2 天前 frontier
GeoPT:动力学提升的几何预训练,扩展物理仿真 (GeoPT: Lifted Geometric Pre-Training for Physics Simulation)
在 GitHub 閱讀在 GitHub 阅读 2 天前 frontier
GR-Dexter(ByteDance Seed):把 VLA 扩展到高自由度灵巧手的“硬件-数据-模型”全栈框架
在 GitHub 閱讀在 GitHub 阅读 2 天前 frontier
产业视角:通用性与“元学习”路径(从一张路线图说起)
在 GitHub 閱讀在 GitHub 阅读 2 天前 frontier
生成式科学智能的“开源越线”模型:IntelliFold 2 (IntelliFold 2: Surpassing AlphaFold 3 via Architectural Refinement and Structural Consistency)
在 GitHub 閱讀在 GitHub 阅读 2 天前 frontier
Jim Fan 2025 机器人年度总结:三条硬教训(硬件 / 评测 / 路线)
在 GitHub 閱讀在 GitHub 阅读 2 天前 frontier
Ken Goldberg:在 AI 时代重估传统机器人学 —— 数据质量、基础设施与“GOFE”回归
在 GitHub 閱讀在 GitHub 阅读 2 天前 frontier
语言如何“改写”视觉:从「香蕉是黄色的」到 VLA 的工程启示 (How Language Shapes Vision: From “Bananas Are Yellow” to VLA)
在 GitHub 閱讀在 GitHub 阅读 2 天前 frontier
1X World Model(1XWM):把“视频世界模型”用在人形 NEO 上
在 GitHub 閱讀在 GitHub 阅读 2 天前 frontier
OneTwoVLA 模型解构 (Dissecting OneTwoVLA)
在 GitHub 閱讀在 GitHub 阅读 2 天前 frontier
Physical Intelligence Layer:机器人基础模型 API 的产品化范式 (The Physical Intelligence Layer)
在 GitHub 閱讀在 GitHub 阅读 2 天前 frontier
Physics of AI:不赌规模,把神经网络当作“物理系统”来研究(刘子鸣专访笔记)
在 GitHub 閱讀在 GitHub 阅读 2 天前 frontier
π*0.6 / RECAP:披着 RL 外衣的 Supervised Learning?——从 Offline RL 的“监督化”到 VLA Post-training 的新范式
在 GitHub 閱讀在 GitHub 阅读 2 天前 frontier
鸽子“自带导航”的硬核机制:内耳前庭系统的电流检测式磁感(2025 Science + Nature 新闻解读)
在 GitHub 閱讀在 GitHub 阅读 2 天前 frontier
多模态操控的策略共识:让“触觉不再拖后腿” (Multi-Modal Manipulation via Policy Consensus)
在 GitHub 閱讀在 GitHub 阅读 2 天前 frontier
PGR:用条件扩散“生成式回放”替代 PER 的稀有样本过拟合 (Prioritized Generative Replay, ICLR 2025)
在 GitHub 閱讀在 GitHub 阅读 2 天前 frontier
动作空间敏感量化:QVLA (QVLA: Not All Channels Are Equal in VLA Quantization)
在 GitHub 閱讀在 GitHub 阅读 2 天前 frontier
RDT2:UMI 数据规模化与跨本体零样本部署 (RDT2: Exploring the Scaling Limit of UMI Data Towards Zero-Shot Cross-Embodiment Generalization)
在 GitHub 閱讀在 GitHub 阅读 2 天前 frontier
ReconVLA:用“重建式监督”做隐式视觉接地(让 VLA 注意力不跑偏)
在 GitHub 閱讀在 GitHub 阅读 2 天前 frontier
具身智能体的奖励函数自主发现 (Discovery of Reward Function for Embodied RL)
在 GitHub 閱讀在 GitHub 阅读 2 天前 frontier
CausalGDP:因果引导的扩散策略用于强化学习 (CausalGDP: Causality-Guided Diffusion Policies for Reinforcement Learning)
在 GitHub 閱讀在 GitHub 阅读 2 天前 frontier
RLinf:面向 Embodied / Agentic AI 的 RL 训练基础设施(以及它对 VLA+RL 的意义)
在 GitHub 閱讀在 GitHub 阅读 2 天前 frontier
机器人“开源基建”三分法:成果展示 / 生态绑定 / 基础设施(以 RoboParty Roboto_Origin 为例)
在 GitHub 閱讀在 GitHub 阅读 2 天前 frontier
物理现实锚定的具身基础模型:RynnBrain (RynnBrain: Open Embodied Foundation Models)
在 GitHub 閱讀在 GitHub 阅读 2 天前 frontier
Shallow-π:Flow-based VLA 的层深蒸馏 (Shallow-π: Knowledge Distillation for Flow-based VLAs)
在 GitHub 閱讀在 GitHub 阅读 2 天前 frontier
软体机器人“本体觉醒”:GVS 应变建模 + 灵敏度椭球,让形状与 3D 外力可估计 (Soft Robot Proprioception with GVS + Sensitivity Ellipsoids)
在 GitHub 閱讀在 GitHub 阅读 2 天前 frontier
砍掉皮层也能“打架求偶”:皮层下才是行为与状态调控的主战场(Ann Kennedy 对谈要点)
在 GitHub 閱讀在 GitHub 阅读 2 天前 frontier
SuperTac:多模态“电子皮肤” + 触觉语言模型 DOVE(Nature Sensors 2025)
在 GitHub 閱讀在 GitHub 阅读 2 天前 frontier
TacRefineNet:触觉驱动的机器人精细抓取微调模型 (TacRefineNet: Tactile-Only Grasp Refinement)
在 GitHub 閱讀在 GitHub 阅读 2 天前 frontier
触觉:为什么看起来最“低级”的感官,在具身智能里最不可替代?(Tactile, the Irreplaceable Modality)
在 GitHub 閱讀在 GitHub 阅读 2 天前 frontier
触觉-力对齐的 VLA:TaF-VLA (Tactile-Force Alignment for VLA)
在 GitHub 閱讀在 GitHub 阅读 2 天前 frontier
具身任务规划的视觉语言基础模型:Thinker (Thinker: A Vision-Language Foundation Model for Embodied Intelligence)
在 GitHub 閱讀在 GitHub 阅读 2 天前 frontier
UniTacHand:用 MANO UV Map 统一触觉,实现人手→机器人零样本技能迁移 (Unified Spatio-Tactile Representation)
在 GitHub 閱讀在 GitHub 阅读 2 天前 frontier
U2O RL:用无监督离线技能预训练替代“任务奖励离线预训练” (Unsupervised-to-Online Reinforcement Learning, 2024)
在 GitHub 閱讀在 GitHub 阅读 2 天前 frontier
视触觉“感同身受”的神经基础 (Vicarious Body Maps)
在 GitHub 閱讀在 GitHub 阅读 2 天前 frontier
视频生成模型在机器人中的应用:近 300 篇体系化综述提炼(2026)(Video Generation Models in Robotics, 2026 Survey)
在 GitHub 閱讀在 GitHub 阅读 2 天前 frontier
视触觉预训练 + 在线多任务学习:用单目 + 二值触觉解锁“类人灵巧操作” (Visual-Tactile Pretraining + Online Multitask Learning)
在 GitHub 閱讀在 GitHub 阅读 2 天前 frontier
VITRA:用真实人类手部视频做可扩展 VLA 预训练 (Scalable Vision-Language-Action Model Pretraining with Real-Life Human Activity Videos)
在 GitHub 閱讀在 GitHub 阅读 2 天前 frontier
VLA 本质安全:从梯度掩码到物理“脑切除” (SGTM)
在 GitHub 閱讀在 GitHub 阅读 2 天前 frontier
全模态共享 Token 空间:以 MM-ACT 为例的 VLA 进化论
在 GitHub 閱讀在 GitHub 阅读 2 天前 frontier
VLAW:世界模型 × VLA 协同进化 (Iterative Co-Improvement of VLA Policy and World Model)
在 GitHub 閱讀在 GitHub 阅读 2 天前 frontier
WaveFormer:波动方程驱动的视觉建模 (WaveFormer: Frequency-Time Decoupled Vision Modeling with Wave Equation)
在 GitHub 閱讀在 GitHub 阅读 2 天前 frontier
Agent World Model:无限合成环境赋能智能体强化学习 (Agent World Model: Infinity Synthetic Environments for Agentic Reinforcement Learning)
在 GitHub 閱讀在 GitHub 阅读 2 天前 frontier
MIND: 世界模型记忆一致性与动作控制评估基准 (MIND: Benchmarking Memory Consistency and Action Control in World Models)
在 GitHub 閱讀在 GitHub 阅读 2 天前 frontier
Olaf-World:面向视频世界建模的潜在动作定向 (Olaf-World: Orienting Latent Actions for Video World Modeling)
在 GitHub 閱讀在 GitHub 阅读 2 天前 frontier
世界模型评估机器人策略:WorldEval (World Model as Real-World Robot Policies Evaluator)
在 GitHub 閱讀在 GitHub 阅读 2 天前 frontier
单图像零样本三维生成:Zero-1-to-3 (Zero-1-to-3: Zero-shot One Image to 3D Object)
在 GitHub 閱讀在 GitHub 阅读 2 天前 galaxea_g0
Galaxea G0: 双系统 VLA 框架
在 GitHub 閱讀在 GitHub 阅读 2 天前 gigabrain_0_5m_star_world_model_based_rl_ramp_2026
GigaBrain-0.5M*:世界模型原生的 VLA 自我进化范式 (GigaBrain-0.5M*: World Model-Based RL for VLA)
在 GitHub 閱讀在 GitHub 阅读 2 天前 gr00t_n1_6
GR00T-N1.6 模型解剖 (Dissecting GR00T-N1.6)
在 GitHub 閱讀在 GitHub 阅读 2 天前 gr_rl_dissection
GR-RL 模型解剖 (Dissecting GR-RL)
在 GitHub 閱讀在 GitHub 阅读 2 天前 grasp_algorithms
抓取算法与仿真平台 (Grasp Algorithms & Simulation Platforms)
在 GitHub 閱讀在 GitHub 阅读 2 天前 isaac_lab
Isaac Lab: GPU 加速的多模态机器人学习仿真框架
在 GitHub 閱讀在 GitHub 阅读 2 天前 knowledge_distillation
知识蒸馏 (Knowledge Distillation)
在 GitHub 閱讀在 GitHub 阅读 2 天前 knowledge_insulation
Knowledge Insulation: 防止灾难性遗忘
在 GitHub 閱讀在 GitHub 阅读 2 天前 kv_cache_llm_inference
当我们谈论 AI 推理的 KV Cache,我们在说什么? (KV Cache in LLM Inference)
在 GitHub 閱讀在 GitHub 阅读 2 天前 lingbot_vla_pragmatic_vla_foundation_model_2026
LingBot-VLA:实用主义 VLA 基座模型与高吞吐训练栈 (LingBot-VLA: A Pragmatic VLA Foundation Model)
在 GitHub 閱讀在 GitHub 阅读 2 天前 literature_review
VLA 文献核心技术归纳 (Literature Technical Review)
在 GitHub 閱讀在 GitHub 阅读 2 天前 llm_reasoning
DAC-RL:分治推理训练提升测试时可扩展性 (Training LLMs for Divide-and-Conquer Reasoning Elevates Test-Time Scalability)
在 GitHub 閱讀在 GitHub 阅读 2 天前 llm_reasoning
具身思维链:让 VLA 先“想清楚再动手” (Robotic Control via Embodied Chain-of-Thought Reasoning, 2024)
在 GitHub 閱讀在 GitHub 阅读 2 天前 llm_reasoning
AgiBot:ERIQ + FACT + GenieReasoner —— 量化“推理→动作”的传递损耗
在 GitHub 閱讀在 GitHub 阅读 2 天前 llm_reasoning
13 参数推理微调:TinyLoRA (Learning to Reason in 13 Parameters)
在 GitHub 閱讀在 GitHub 阅读 2 天前 llm_reasoning
VLM Promptable Representations:用“可提示表征”给 RL 注入常识 (PR2L, 2024/2025)
在 GitHub 閱讀在 GitHub 阅读 2 天前 math_for_vla
VLA 数学必备:从直觉到实作(Math for VLA Implementers)
在 GitHub 閱讀在 GitHub 阅读 2 天前 mind_benchmarking_memory_consistency_and_action_control_in_w_dissection
MIND: 世界模型记忆一致性与动作控制评估基准 (MIND: Benchmarking Memory Consistency and Action Control in World Models)
在 GitHub 閱讀在 GitHub 阅读 2 天前 modular_pipeline_table_generator
弹性模组化架构 Table 生成器(VLA Modular Pipelines)
在 GitHub 閱讀在 GitHub 阅读 2 天前 motion_planning
运动规划 (Motion Planning)
在 GitHub 閱讀在 GitHub 阅读 2 天前 multimodal_models
多模态模型基础 (Multimodal Models)
在 GitHub 閱讀在 GitHub 阅读 2 天前 neurips_2025_insights
NeurIPS 2025 最佳论文:具身智能视角解读
在 GitHub 閱讀在 GitHub 阅读 2 天前 olaf_world_orienting_latent_actions_for_video_world_modeling_dissection
Olaf-World:面向视频世界建模的潜在动作定向 (Olaf-World: Orienting Latent Actions for Video World Modeling)
在 GitHub 閱讀在 GitHub 阅读 2 天前 paper_index
VLA 论文索引 (Paper Index)
在 GitHub 閱讀在 GitHub 阅读 3 天前 theory
H-WM:分层世界模型引导的机器人任务与运动规划 (H-WM: Robotic Task and Motion Planning Guided by Hierarchical World Model)
在 GitHub 閱讀在 GitHub 阅读 7 天前 theory
何时执行、询问或学习:不确定性感知策略转向 (When to Act, Ask, or Learn: Uncertainty-Aware Policy Steering)
在 GitHub 閱讀在 GitHub 阅读 10 天前 tactile
主动触觉探索用于刚体姿态与形状估计 (Active Tactile Exploration for Rigid Body Pose and Shape Estimation)
在 GitHub 閱讀在 GitHub 阅读 12 天前 theory
TwinVLA:用双臂"孪生"实现数据高效的双手机器人操作 (TwinVLA: Data-Efficient Bimanual Manipulation with Twin Single-Arm Vision-Language-Action Models)
在 GitHub 閱讀在 GitHub 阅读 14 天前 theory
扩展验证比扩展策略学习更有效:VLA 对齐的测试时验证框架 (Scaling Verification Can Be More Effective than Scaling Policy Learning for VLA Alignment)
在 GitHub 閱讀在 GitHub 阅读 更多文章 · 全部在 GitHub 7 篇
general · 6 篇
RoboGene: Boosting VLA Pre-training via Diversity-Driven Agentic Framework for Real-World Task Generation World Action Models are Zero-shot Policies MIND: Benchmarking Memory Consistency and Action Control in World Models Olaf-World: Orienting Latent Actions for Video World Modeling CausalGDP: Causality-Guided Diffusion Policies for Reinforcement Learning Agent World Model: Infinity Synthetic Environments for Agentic Reinforcement Learning
🏆 SOTA 排行
Evo-SOTA 完整榜 → avg_len
| # | Model | Score | vs Prev | Date | Paper |
|---|---|---|---|---|---|
| 1 | Xiaomi-Robotics-0 | 4.8 | Flower VLA +0.13 | 2026-03-06 | arxiv → |
| 2 | Xiaomi-Robotics-0 | 4.8 | Flower VLA +0.13 | 2026-02-27 | arxiv → |
| 3 | Xiaomi-Robotics-0 | 4.75 | pi-RL +0.04 | 2026-03-06 | arxiv → |
| 4 | Xiaomi-Robotics-0 | 4.75 | pi-RL +0.04 | 2026-02-27 | arxiv → |
| 5 | AVA-VLA | 4.65 | TriVLA +0.28 | 2026-03-06 | arxiv → |
| 6 | AVA-VLA | 4.65 | TriVLA +0.28 | 2026-02-27 | arxiv → |
| 7 | GR-2 | 4.64 | PD-VLA +1.09 | 2026-03-06 | arxiv → |
| 8 | GR-2 | 4.64 | PD-VLA +1.09 | 2026-02-27 | arxiv → |
| 9 | Flower VLA | 4.35 | RoboUniview +0.49 | 2026-03-06 | arxiv → |
| 10 | Flower VLA | 4.35 | RoboUniview +0.49 | 2026-02-27 | arxiv → |
| 11 | RationalVLA | 2.48 | ReinboT +0.22 | 2026-03-06 | arxiv → |
| 12 | RationalVLA | 2.48 | ReinboT +0.22 | 2026-02-27 | arxiv → |
| 13 | MCIL | 1.82 | 2026-03-06 | arxiv → | |
| 14 | MCIL | 1.82 | 2026-02-27 | arxiv → |
average
| # | Model | Score | vs Prev | Date | Paper |
|---|---|---|---|---|---|
| 1 | SimpleVLA-RL | 99.1 | Being-H0.5 (Specialist) +0.20 | 2026-03-06 | arxiv → |
| 2 | SimpleVLA-RL | 99.1 | Being-H0.5 (Specialist) +0.20 | 2026-02-27 | arxiv → |
| 3 | ABot-M0 | 98.6 | ACoT-VLA +0.10 | 2026-02-27 | arxiv → |
| 4 | ACoT-VLA | 98.5 | AVA-VLA +0.50 | 2026-03-06 | arxiv → |
| 5 | ACoT-VLA | 98.5 | AVA-VLA +0.50 | 2026-03-04 | arxiv → |
| 6 | DexVLA | 97.3 | NORA-1.5 +2.80 | 2026-03-06 | arxiv → |
| 7 | DexVLA | 97.3 | NORA-1.5 +2.80 | 2026-02-27 | arxiv → |
LIBERO Plus standard-closed
total MetaWorld non-standard
average RoboCasa-GR1-Tabletop standard-opensource
avg_success_rate RoboChallenge standard-opensource
score | # | Model | Score | vs Prev | Date | Paper |
|---|---|---|---|---|---|
| 1 | DM0 | 72.25 | Giga-Brain-0.1 +3.91 | 2026-03-06 | arxiv → |