清华×生数研发国产视频具身基座模型Vidar,实现少样本泛化突破
7月25日,清华大学与生数科技联合发布Vidar模型。据介绍,作为视频大模型Vidu在具身智能领域延伸的重大突破,Vidar是全球首个基于通用视频大模型实现视频理解能力向物理决策系统性迁移的多视角具身基座模型。该模型创新性地构建了支持机器人双臂协同任务的多视角视频预测框架,在保持SOTA性能的同时,展现出显著的少样本学习优势。
Vidar可在仅20分钟少样本训练下,泛化至全新机器人本体,完成多视角双臂操作任务,所需数据量约为行业领先的RDT的八十分之一,π0.5的一千两百分之一。相比以往依赖百万级动作数据的机器人控制模型,Vidar显著降低了数据门槛与训练成本。
该模型基于生数科技此前推出的视频大模型Vidu,在此基础上融入75万条双臂机器人具身数据,构建统一观测空间后进行预训练,并结合自动化动作采集与逆动力学解码器,实现从视频预测到动作控制的全链路闭环。
清华与生数科技团队还提出“任务无关动作数据”训练范式,通过ATARA方法自动采集机器人动作轨迹,仅需10小时,即可完成机器人动作空间泛化。配合高精度动作执行模型AnyPos,Vidar在实际任务中实现近100%成功率,精度远超当前行业基线33%~44%。
Vidar在VBench视频生成测试中,在主体一致性、背景还原与画面质量等维度均显著领先。结合测试时扩展机制(Test-Time Scaling),模型可根据具体任务智能调节生成预测,进一步提高真实场景下的执行稳定性。
研究团队表示,Vidar打破了现有VLA架构对特定机器人任务数据的依赖,首次构建了“通用视频-中等具身视频-少量本体数据”的三级训练框架,推动了具身智能向“虚实互通”的下一阶段演进。未来,Vidar可广泛应用于居家、医院、工厂等场景。
生数科技创始人兼首席科学家朱军教授表示:"我们致力于通过多模态大模型技术推动数字世界与物理世界的深度融合与协同进化。一方面,我们正在打造新一代数字内容创作引擎,让AI成为人类创意的延伸;另一方面,我们通过训练具身视频基座模型,实现虚拟与现实的深度交互。"(袁宁)
本文来自网易科技报道,更多资讯和深度内容,关注我们。
2、江门市蓬江区棠下镇人大主席罗翠玲被查!,江门市蓬江区棠下镇委书记
3、Shams:国王与太阳已经就库明加提出报价 且有首发承诺