@stevessr 在 宇树科技 开源UnifoLM-VLA-0 中发帖
[image]
[image]
[image]
[!quote]+
我们通过在 UnifoLM-VLM -0 模型中集成动作头,开发了 UnifoLM-VLA -0 模型。通过在仿真环境和真实机器人实验中进行的多任务训练验证,结果表明该模型具有强大的能力,能够通过单个模型检查点处理各种不同的任务。在 LIBERO 仿真基准测试中, UnifoLM-VLA-0 取得了极具竞争力的性能,具体如下:
[image]
[!quote]+
1月29日,宇树科技官方账号宣布开源UnifoLM系列下面向通用人形机器人操作的视觉-语言-动作(VLA)大模型“UnifoLM-VLA-0”。该模型旨在突破传统VLLM在物理交互中的局限,通过在机器人操作数据上的继续预训练,实现了从通用"图文理解"向具备物理常识的"具身大脑"的进化。