英伟达机器人研究具身智能新范式:世界动作模型
具身智能的突破路径被认为与大型语言模型LLM高度相似其核心在于发展强大的视频生成与理解模型并进一步演化为“世界动作模型”。这一论断的核心依据在于两者都遵循“从海量无标注数据中学习通用表示并通过预测下一个基本单元来建模复杂序列”的核心范式。视频作为记录物理世界动态变化的最自然、最丰富的模态是学习世界通用物理规律和因果关系的理想载体而“世界动作模型”则是这一范式在具身智能领域的终极目标形态。一、 核心范式相似性自回归预测与通用表示学习LLM的成功路径清晰地展示了一条通过大规模无监督预训练来获得通用能力的道路。对比维度大型语言模型 (LLM)具身智能/世界模型 (视频/世界动作模型)数据形态海量、无标注的文本序列网页、书籍、代码等。海量、无标注的视频序列互联网视频、机器人第一视角录像、仿真环境渲染等。基本建模单元离散的文本标记Token通过Tokenizer获得。离散的视觉标记Visual Token通过VQ-VAE、VQ-GAN等视觉Tokenizer获得。核心预训练任务下一个标记预测Next-Token Prediction。模型通过预测被掩盖或后续的文本标记学习语言的语法、语义、知识和逻辑。下一帧预测Next-Frame Prediction或帧补全Frame Inpainting。模型通过预测视频序列中的未来帧或缺失帧学习世界的视觉外观、物体运动规律、物理交互和因果关系。获得的通用能力语言理解、生成、推理、代码编写等通用语言智能。物理常识理解、场景动态推演、动作效果预测、反事实推理等通用物理世界智能。模型架构趋势统一的自回归Transformer架构如GPT系列处理文本生成、理解、代码等多种任务。统一的、基于Transformer的多模态自回归架构如Sora、Emu3处理视频生成、理解、编辑并逐步融合动作规划。这种范式相似性的根本原因在于文本和视频都是随时间展开的序列数据。LLM通过预测下一个词来建模“语言宇宙”的规律而视频模型则通过预测下一帧来建模“物理宇宙”的规律。Emu3等研究已经证明仅使用下一个标记预测的目标就能在图像、视频生成和理解任务上取得领先性能这强烈暗示了自回归预测作为多模态通用智能基础范式的普适性。二、 “世界动作模型”方案视频模型的自然演进与核心技术原理“世界动作模型”可以视为视频生成模型在功能和应用上的深度延伸其目标是构建一个不仅能“看”懂世界还能“想象”动作后果并“规划”行动的模型。其技术演进路径和核心原理如下1. 从视频生成到物理世界模拟基础视频生成模型如Sora展示了从文本或图像生成逼真、连贯、符合物理规律的长视频的能力。这证明了模型内部已经学习到了一个丰富的、可模拟的世界表示。关键跃迁引入动作与智能体“世界动作模型”在视频模型的基础上将“动作”作为模型的一个原生输入或控制维度。模型不仅接收文本描述和初始图像还接收一个表示智能体动作的序列。其训练目标变为给定当前状态图像帧和一系列动作预测执行这些动作后世界状态后续视频帧的演变。核心技术时空Patch与DiT架构以Sora为代表的先进模型采用视觉Patch作为基本单元并结合扩散Transformer。时空Patch将视频在时间和空间上统一离散化DiT架构则提供了强大的序列建模能力。这为统一处理外观、运动和动作指令奠定了基础。# 简化的“世界动作模型”前向过程概念代码 class WorldActionModel(nn.Module): def forward(self, initial_frame, action_sequence, text_prompt): initial_frame: 初始状态图像 [B, C, H, W] action_sequence: 动作序列 [B, T_a, action_dim] text_prompt: 文本指令 [B, text_len] # 1. 多模态编码与对齐 frame_tokens self.visual_encoder(initial_frame) # 编码为视觉标记 action_tokens self.action_encoder(action_sequence) # 编码为动作标记 text_tokens self.text_encoder(text_prompt) # 编码为文本标记 # 所有标记对齐到同一语义空间类似于CLIP # 2. 构建统一的时空动作序列 # 将初始状态、动作指令、文本约束混合成一个序列 input_sequence concat([frame_tokens, action_tokens, text_tokens], dim1) # 3. 自回归预测或扩散去噪 # 方式A自回归预测后续的视觉标记序列未来帧 # 方式B基于扩散模型以输入序列为条件去噪生成未来帧序列 predicted_future_tokens self.transformer(input_sequence) # 4. 解码为视频 future_frames self.visual_decoder(predicted_future_tokens) return future_frames # 预测的执行动作后的未来视频2. 实现“三重一致性”是突破关键一篇119页的综述明确定义了世界模型应追求模态、空间、时间的三重一致性这也是“世界动作模型”必须解决的挑战模态一致性模型需确保文本指令、动作向量和视觉输出在语义上对齐。例如文本“拿起杯子”对应的动作编码应产生手部移动并接触杯子的正确视觉变化。这需要像CLIP这样的对比学习来对齐跨模态表示。空间一致性生成的场景必须符合3D几何与物理法则。物体在运动过程中体积、形状、遮挡关系应合理。这需要模型隐式或显式地学习3D表示如通过NeRF或3D高斯溅射的原理来约束生成过程。时间一致性动作产生的影响必须符合因果律和动力学规律。推一个球球应沿受力方向加速运动撞击积木塔塔应倒塌而非漂浮。模型需要在长序列中保持动态演化的连贯性和合理性。3. 从被动生成到主动规划成熟的“世界动作模型”将成为一个可交互的物理模拟器内部模拟想象智能体可以在模型中“想象”执行不同动作链的后果进行零样本的试错而无需在真实世界中冒险。动作规划与优化结合强化学习或搜索算法智能体可以以达成某个文本描述的目标如“把积木搭成塔”为目的在模型内部模拟中搜索最优动作序列。这实现了从“看到什么发生”到“让什么发生”的转变。反事实推理模型能够回答“如果当时做了不同的动作结果会怎样”这类问题这是高级规划和因果理解的基础。三、 依据总结与未来展望因此认为具身智能突破路径与LLM相似核心在于视频和“世界动作模型”的依据是坚实且多层次的数据与任务范式相同都依赖于海量无标注序列数据文本/视频并通过自回归预测下一个单元词/帧来学习通用规律。架构统一趋势明显Transformer已成为处理文本和视觉序列的共同基础架构自回归或扩散模型正成为统一的多模态生成框架。视频是世界的“文本”视频天然封装了物理世界的对象、属性、关系、运动和变化是学习通用世界模型最直接、信息密度最高的数据源。“世界动作模型”是功能延伸在视频模型中加入动作作为条件输入和控制变量是模型从被动观察走向主动交互、从生成内容走向规划行动的自然且必要的技术演进。未来构建强大的“世界动作模型”仍面临诸多挑战如对长程复杂因果关系的建模、对罕见事件的覆盖、以及如何将高维视觉动作空间与低维控制指令有效关联等。然而沿着这条与LLM成功高度相似的路径——扩大高质量视频数据规模、改进视觉Token化与序列建模架构、强化多模态对齐与一致性约束——被视为实现具身智能根本性突破的最有希望的途径。参考来源万字长文实录RL 界与 CV 界的“世界模型”有什么不同丨GAIR Live模态×空间×时间一篇119页综述定义了世界模型该长什么样Sora作为AGI世界模型关于文本到视频生成的完整调查【世界模型】Emu3: Next-Token Prediction is All You Need收藏AI核心概念体系全梳理从基础到大模型的学习指南AI大模型赋能NFT创作架构师解析GPT-4与多模态模型集成方案
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2598094.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!