近日,银河通用携手北京智源人工智能研究院(BAAI)、北京大学及香港大学的科研团队,共同发布了一款名为GraspVLA的突破性大模型。这款模型专注于具身智能领域,旨在通过人工智能技术的深度融入,使机器人等物理实体具备感知、学习和与环境动态交互的能力。
GraspVLA大模型的构建过程包括预训练和后训练两个阶段。其预训练阶段完全基于海量的合成大数据,数据量之巨前所未有,达到了十亿帧“视觉-语言-动作”对。这一庞大的数据集使模型掌握了泛化闭环抓取能力,奠定了坚实的基础。
经过预训练的GraspVLA模型,能够直接实现从模拟环境到现实环境的无缝迁移。在未见过的真实场景和物体上,模型无需任何先验知识即可进行测试,并展现出强大的泛化能力,满足了大多数产品的实际需求。对于特定场景下的特殊需求,后训练阶段仅需少量样本学习,即可将基础能力迁移至特定场景,既保持了高泛化性,又形成了符合产品需求的专业技能。
为了验证GraspVLA模型的泛化能力,官方提出了七大“金标准”,包括光照泛化、背景泛化、平面位置泛化、空间高度泛化、动作策略泛化、动态干扰泛化和物体类别泛化。这些标准全面覆盖了机器人抓取任务中可能遇到的各种复杂情况。
在光照泛化测试中,模型在不同光照条件下均能保持稳定的抓取性能。背景泛化测试中,模型在复杂多变的背景下依然能够准确识别目标物体。平面位置泛化和空间高度泛化测试中,模型能够灵活应对不同位置和高度的目标物体。动作策略泛化测试中,模型展现了多样化的抓取策略。动态干扰泛化测试中,模型在动态环境中依然能够准确抓取目标。物体类别泛化测试中,模型对不同类别的物体均展现出了良好的抓取能力。
GraspVLA大模型的发布,标志着具身智能领域取得了重大进展。它不仅提升了机器人在复杂环境中的抓取能力,还为未来人工智能与物理实体的深度融合奠定了坚实基础。