机器人产业深度(七):机器人的大脑-具身智能
2024年人形机 器人最具突破性的进展主要体现在具身智能领域:3月,Covariant发布端到端具身大模型RFM-1,具身智能创业团队Sergey Levine 和Chelsea Finn 创立Pi(Physical Intelligence),Figure AI 发布接入OpenAI GPT-4V 的Figure 01demo。4 月,李飞飞创立World Labs,致力于解决AI 在三维空间感知和理解方面的难题。5 月,特斯拉发布视频,展示Optimus 精准分拣特斯拉电动车4680 电池的场景,使用完全端到端神经网络,只利用2D 摄像头视频和机载自传感器,直接生成关节控制序列,完全靠视觉辅助和人类示范进行训练。国内人形机器人产业硬件供应链优势明显,在具身智能、数据采集、人才领域的短板需要补齐。
分层端到端是目前具身智能的主要路径。大模型分为非具身大模型(基础大模型)、具身智能大模型(机器人大模型),区别是能否生成运动姿态。非具身大模型如GPT、Sora 等,输入和输出的模态都是语言、图片和视频。具身智能大模型输入视觉、语言信号,输出三维物理世界的操作,其中,端到端的具身大模型对数据和算力要求高,如Tesla FSD、谷歌RT 模型;Figure AI 等大多数公司都采取了分层端到端的具身大模型,一般分为三层:基础大模型(LLM 或VLM)、决策大模型、操作大模型,其中决策大模型以ChatGPT for Robotics、谷歌PaLM-E 为代表,技术方向从LLM 向强化学习(RL)演进,基于RL 的范式可以使模型能够在不同环境和任务中学习和适应,实现更高级的决策能力。操作大模型根据决策大模型的输出执行具体动作,需要与机器人硬件深度集成,且必须通过数据采集来实现,技术方向从“MPC+WBC”向“RL+仿真”演进,MPC 更适合具有精确模型和短期优化目标的场景,RL 更适用于不确定性高、需要长期学习和自适应的环境。在操作大模型领域,大多数厂商都刚起步。
数据采集的主要方式:远程操作、仿真合成数据。互联网上各类文本、图像和视频数据集庞大,机器人的场景和交互有价值的数据量小,限制了AI 模型在人形机器人上的泛化能力。特斯拉Tesla Bot 开发团队使用人类的真实运动方式来训练机器人,英伟达推出MimicGen 和Robocasa 模型,通过真人的遥操作数据捕获,再通过生成合成运动数据和模拟环境,加速机器人技术的研发和应用。国内人形机器人创新中心加速建设人形机器人训练场。
具身智能估值逻辑:硬件、数据、模型、人才。硬件是一切的基础,如果没有自己的硬件,就无法根据算法和数据进行硬件的快速优化和修改。涉及数据的采集、组织管理以及与模型的闭环开发,需要有强大组织能力的团队,核心团队需要具备组织大规模工程师的经验;越来越多的算法陆续开源,开源算法可以提供基础的功能和技术,但要实现高质量、高性能的人形机器人,需要专业的算法团队进行深入研究和开发。
风险提示:1)竞争环境恶化;2)新技术的应用速度低于预期
声明:
- 风险提示:以上内容仅来自互联网,文中内容或观点仅作为原作者或者原网站的观点,不代表本站的任何立场,不构成与本站相关的任何投资建议。在作出任何投资决定前,投资者应根据自身情况考虑投资产品相关的风险因素,并于需要时咨询专业投资顾问意见。本站竭力但不能证实上述内容的真实性、准确性和原创性,对此本站不做任何保证和承诺。
- 本站认真尊重知识产权及您的合法权益,如发现本站内容或相关标识侵犯了您的权益,请您与我们联系删除。
推荐文章: