Skip to content
VLA 線 · DEEP DIVE ARCHIVEVLA 线 · DEEP DIVE ARCHIVE

VLA 深度追蹤VLA 深度追踪

Vision-Language-Action:讓機器人看→想→做的端到端模型Vision-Language-Action:让机器人看→想→做的端到端模型

METHOD FAMILY TRENDS

2026-03-09 · 171 papers · 10d window
confidence: moderate
FAMILY 10D CHART SHARE Δ MOM VOL ST
RL Fine-tuning 24.1% +15.5 1.29 27
World Model 12.5% +7.3 1.26 14
Flow Matching 8.0% +1.1 1.06 9
Tactile 5.4% -1.5 0.92 6
Dexterous Hand 4.5% -5.8 0.69 5
Diffusion Policy 3.6% +0.2 1.02 4
Instr. Tuning 1.8% +1.8 1.53 2
Cross-Embodiment 0.9% +0.9 0.89 1

MOMENTUM GAUGE

decel 1.0 accel
Instr. Tuning
1.53 ACCEL
RL Fine-tune
1.29
World Model
1.26
Flow Matching
1.06
Diffusion Pol.
1.02
Tactile
0.92
Cross-Embod.
0.89
Dext. Hand
0.69 DECEL

COMPETITION PAIRS

ACTION HEAD ROUTE
Diffusion Pol. vs Flow Matching
31%
69%
3.6% · x1.02 ratio 0.45 8.0% · x1.06
POST-TRAINING ROUTE
Instr. Tuning vs RL Fine-tune
7%
93%
1.8% · x1.53 ratio 0.07 24.1% · x1.29

📐 理論文章庫📐 理论文章库

查看 GitHub 全庫查看 GitHub 全库
最近 2 週最近 2 周 104 篇
昨天 frontier

Evo-RL:在低成本机械臂上把 π*0.6 / RECAP 真机 RL 跑成可复现工程 (Evo-RL for Open Real-World RL on SO101 and Beyond)

在 GitHub 閱讀在 GitHub 阅读
昨天 frontier

更新成本摊销:Doc-to-LoRA / Text-to-LoRA 让 LLM “瞬时内化” (Cost Amortization for Instant LLM Updates)

在 GitHub 閱讀在 GitHub 阅读
昨天 frontier

Lightning Grasp:Contact Field 驱动的超高速灵巧手抓取合成 (Lightning Grasp: Procedural Grasp Synthesis with Contact Fields)

在 GitHub 閱讀在 GitHub 阅读
2 天前 agent_world_model_infinity_synthetic_environments_for_agenti_dissection

Agent World Model:无限合成环境赋能智能体强化学习 (Agent World Model: Infinity Synthetic Environments for Agentic Reinforcement Learning)

在 GitHub 閱讀在 GitHub 阅读
2 天前 causalgdp_causality_guided_diffusion_policies_for_reinforcem_dissection

CausalGDP:因果引导的扩散策略用于强化学习 (CausalGDP: Causality-Guided Diffusion Policies for Reinforcement Learning)

在 GitHub 閱讀在 GitHub 阅读
2 天前 dora_weight_decomposed_low_rank_adaptation

DoRA:权重分解的低秩适配 (DoRA: Weight-Decomposed Low-Rank Adaptation)

在 GitHub 閱讀在 GitHub 阅读
2 天前 dreamzero_world_action_models_zero_shot_policies_2026

DreamZero:世界动作模型即零样本策略 (World Action Models are Zero-shot Policies)

在 GitHub 閱讀在 GitHub 阅读
2 天前 frontier

RoboGene: 通过多样性驱动的智能体框架提升 VLA 预训练 (Boosting VLA Pre-training via Diversity-Driven Agentic Framework for Real-World Task Generation)

在 GitHub 閱讀在 GitHub 阅读
2 天前 frontier

机器人开可乐/发牌有多难?灵巧手:硬件路线 × 接触数学 × 数据金字塔(访谈摘录整理)

在 GitHub 閱讀在 GitHub 阅读
2 天前 frontier

GeoPT:动力学提升的几何预训练,扩展物理仿真 (GeoPT: Lifted Geometric Pre-Training for Physics Simulation)

在 GitHub 閱讀在 GitHub 阅读
2 天前 frontier

生成式科学智能的“开源越线”模型:IntelliFold 2 (IntelliFold 2: Surpassing AlphaFold 3 via Architectural Refinement and Structural Consistency)

在 GitHub 閱讀在 GitHub 阅读
2 天前 frontier

语言如何“改写”视觉:从「香蕉是黄色的」到 VLA 的工程启示 (How Language Shapes Vision: From “Bananas Are Yellow” to VLA)

在 GitHub 閱讀在 GitHub 阅读
2 天前 frontier

π*0.6 / RECAP:披着 RL 外衣的 Supervised Learning?——从 Offline RL 的“监督化”到 VLA Post-training 的新范式

在 GitHub 閱讀在 GitHub 阅读
2 天前 frontier

鸽子“自带导航”的硬核机制:内耳前庭系统的电流检测式磁感(2025 Science + Nature 新闻解读)

在 GitHub 閱讀在 GitHub 阅读
2 天前 frontier

PGR:用条件扩散“生成式回放”替代 PER 的稀有样本过拟合 (Prioritized Generative Replay, ICLR 2025)

在 GitHub 閱讀在 GitHub 阅读
2 天前 frontier

RDT2:UMI 数据规模化与跨本体零样本部署 (RDT2: Exploring the Scaling Limit of UMI Data Towards Zero-Shot Cross-Embodiment Generalization)

在 GitHub 閱讀在 GitHub 阅读
2 天前 frontier

CausalGDP:因果引导的扩散策略用于强化学习 (CausalGDP: Causality-Guided Diffusion Policies for Reinforcement Learning)

在 GitHub 閱讀在 GitHub 阅读
2 天前 frontier

机器人“开源基建”三分法:成果展示 / 生态绑定 / 基础设施(以 RoboParty Roboto_Origin 为例)

在 GitHub 閱讀在 GitHub 阅读
2 天前 frontier

软体机器人“本体觉醒”:GVS 应变建模 + 灵敏度椭球,让形状与 3D 外力可估计 (Soft Robot Proprioception with GVS + Sensitivity Ellipsoids)

在 GitHub 閱讀在 GitHub 阅读
2 天前 frontier

砍掉皮层也能“打架求偶”:皮层下才是行为与状态调控的主战场(Ann Kennedy 对谈要点)

在 GitHub 閱讀在 GitHub 阅读
2 天前 frontier

触觉:为什么看起来最“低级”的感官,在具身智能里最不可替代?(Tactile, the Irreplaceable Modality)

在 GitHub 閱讀在 GitHub 阅读
2 天前 frontier

具身任务规划的视觉语言基础模型:Thinker (Thinker: A Vision-Language Foundation Model for Embodied Intelligence)

在 GitHub 閱讀在 GitHub 阅读
2 天前 frontier

UniTacHand:用 MANO UV Map 统一触觉,实现人手→机器人零样本技能迁移 (Unified Spatio-Tactile Representation)

在 GitHub 閱讀在 GitHub 阅读
2 天前 frontier

U2O RL:用无监督离线技能预训练替代“任务奖励离线预训练” (Unsupervised-to-Online Reinforcement Learning, 2024)

在 GitHub 閱讀在 GitHub 阅读
2 天前 frontier

视频生成模型在机器人中的应用:近 300 篇体系化综述提炼(2026)(Video Generation Models in Robotics, 2026 Survey)

在 GitHub 閱讀在 GitHub 阅读
2 天前 frontier

视触觉预训练 + 在线多任务学习:用单目 + 二值触觉解锁“类人灵巧操作” (Visual-Tactile Pretraining + Online Multitask Learning)

在 GitHub 閱讀在 GitHub 阅读
2 天前 frontier

VITRA:用真实人类手部视频做可扩展 VLA 预训练 (Scalable Vision-Language-Action Model Pretraining with Real-Life Human Activity Videos)

在 GitHub 閱讀在 GitHub 阅读
2 天前 frontier

WaveFormer:波动方程驱动的视觉建模 (WaveFormer: Frequency-Time Decoupled Vision Modeling with Wave Equation)

在 GitHub 閱讀在 GitHub 阅读
2 天前 frontier

Agent World Model:无限合成环境赋能智能体强化学习 (Agent World Model: Infinity Synthetic Environments for Agentic Reinforcement Learning)

在 GitHub 閱讀在 GitHub 阅读
2 天前 frontier

MIND: 世界模型记忆一致性与动作控制评估基准 (MIND: Benchmarking Memory Consistency and Action Control in World Models)

在 GitHub 閱讀在 GitHub 阅读
2 天前 frontier

Olaf-World:面向视频世界建模的潜在动作定向 (Olaf-World: Orienting Latent Actions for Video World Modeling)

在 GitHub 閱讀在 GitHub 阅读
2 天前 gigabrain_0_5m_star_world_model_based_rl_ramp_2026

GigaBrain-0.5M*:世界模型原生的 VLA 自我进化范式 (GigaBrain-0.5M*: World Model-Based RL for VLA)

在 GitHub 閱讀在 GitHub 阅读
2 天前 lingbot_vla_pragmatic_vla_foundation_model_2026

LingBot-VLA:实用主义 VLA 基座模型与高吞吐训练栈 (LingBot-VLA: A Pragmatic VLA Foundation Model)

在 GitHub 閱讀在 GitHub 阅读
2 天前 llm_reasoning

DAC-RL:分治推理训练提升测试时可扩展性 (Training LLMs for Divide-and-Conquer Reasoning Elevates Test-Time Scalability)

在 GitHub 閱讀在 GitHub 阅读
2 天前 llm_reasoning

具身思维链:让 VLA 先“想清楚再动手” (Robotic Control via Embodied Chain-of-Thought Reasoning, 2024)

在 GitHub 閱讀在 GitHub 阅读
2 天前 mind_benchmarking_memory_consistency_and_action_control_in_w_dissection

MIND: 世界模型记忆一致性与动作控制评估基准 (MIND: Benchmarking Memory Consistency and Action Control in World Models)

在 GitHub 閱讀在 GitHub 阅读
2 天前 olaf_world_orienting_latent_actions_for_video_world_modeling_dissection

Olaf-World:面向视频世界建模的潜在动作定向 (Olaf-World: Orienting Latent Actions for Video World Modeling)

在 GitHub 閱讀在 GitHub 阅读
3 天前 theory

H-WM:分层世界模型引导的机器人任务与运动规划 (H-WM: Robotic Task and Motion Planning Guided by Hierarchical World Model)

在 GitHub 閱讀在 GitHub 阅读
7 天前 theory

何时执行、询问或学习:不确定性感知策略转向 (When to Act, Ask, or Learn: Uncertainty-Aware Policy Steering)

在 GitHub 閱讀在 GitHub 阅读
10 天前 tactile

主动触觉探索用于刚体姿态与形状估计 (Active Tactile Exploration for Rigid Body Pose and Shape Estimation)

在 GitHub 閱讀在 GitHub 阅读
12 天前 theory

TwinVLA:用双臂"孪生"实现数据高效的双手机器人操作 (TwinVLA: Data-Efficient Bimanual Manipulation with Twin Single-Arm Vision-Language-Action Models)

在 GitHub 閱讀在 GitHub 阅读
14 天前 theory

扩展验证比扩展策略学习更有效:VLA 对齐的测试时验证框架 (Scaling Verification Can Be More Effective than Scaling Policy Learning for VLA Alignment)

在 GitHub 閱讀在 GitHub 阅读

🏆 SOTA 排行

Evo-SOTA 完整榜 →
CALVIN ABCD-D 飽和
avg_len
# Model Score vs Prev Date Paper
1 Xiaomi-Robotics-0 4.8 Flower VLA +0.13 2026-03-06 arxiv →
2 Xiaomi-Robotics-0 4.8 Flower VLA +0.13 2026-02-27 arxiv →
3 Xiaomi-Robotics-0 4.75 pi-RL +0.04 2026-03-06 arxiv →
4 Xiaomi-Robotics-0 4.75 pi-RL +0.04 2026-02-27 arxiv →
5 AVA-VLA 4.65 TriVLA +0.28 2026-03-06 arxiv →
6 AVA-VLA 4.65 TriVLA +0.28 2026-02-27 arxiv →
7 GR-2 4.64 PD-VLA +1.09 2026-03-06 arxiv →
8 GR-2 4.64 PD-VLA +1.09 2026-02-27 arxiv →
9 Flower VLA 4.35 RoboUniview +0.49 2026-03-06 arxiv →
10 Flower VLA 4.35 RoboUniview +0.49 2026-02-27 arxiv →
11 RationalVLA 2.48 ReinboT +0.22 2026-03-06 arxiv →
12 RationalVLA 2.48 ReinboT +0.22 2026-02-27 arxiv →
13 MCIL 1.82 2026-03-06 arxiv →
14 MCIL 1.82 2026-02-27 arxiv →
LIBERO standard-opensource 飽和
average
# Model Score vs Prev Date Paper
1 SimpleVLA-RL 99.1 Being-H0.5 (Specialist) +0.20 2026-03-06 arxiv →
2 SimpleVLA-RL 99.1 Being-H0.5 (Specialist) +0.20 2026-02-27 arxiv →
3 ABot-M0 98.6 ACoT-VLA +0.10 2026-02-27 arxiv →
4 ACoT-VLA 98.5 AVA-VLA +0.50 2026-03-06 arxiv →
5 ACoT-VLA 98.5 AVA-VLA +0.50 2026-03-04 arxiv →
6 DexVLA 97.3 NORA-1.5 +2.80 2026-03-06 arxiv →
7 DexVLA 97.3 NORA-1.5 +2.80 2026-02-27 arxiv →
LIBERO Plus standard-closed
total
# Model Score vs Prev Date Paper
1 ACoT-VLA 84.1 2026-03-06 arxiv →
2 ABot-M0 80.5 VLA-JEPA +1.00 2026-03-06 arxiv →
3 ABot-M0 80.5 VLA-JEPA +1.00 2026-03-04 arxiv →
4 VLA-JEPA 79.5 DeepThinkVLA +0.50 2026-03-03 arxiv →
MetaWorld non-standard
average
# Model Score vs Prev Date Paper
1 MPI 86 iRe-VLA +3.00 2026-03-06 arxiv →
2 pi-RL 85.8 Evo-1 +5.20 2026-03-06 arxiv →
RoboCasa-GR1-Tabletop standard-opensource
avg_success_rate
# Model Score vs Prev Date Paper
1 ABot-M0 58.3 TwinBrainVLA +3.70 2026-03-06 arxiv →
2 ABot-M0 58.3 TwinBrainVLA +3.70 2026-03-04 arxiv →
RoboChallenge standard-opensource
score
# Model Score vs Prev Date Paper
1 DM0 72.25 Giga-Brain-0.1 +3.91 2026-03-06 arxiv →