傍晚七点。
刚看到现代汽车(Hyundai)披露的 AI+Robotics 路线图,挺有意思。他们不再只是把大模型当成一个“语音助手”塞进机器人里,而是试图实现一种原生融合。
以前的逻辑是:传感器收集数据 -> 转化为文本/指令 -> LLM 处理 -> 转化为动作。这种链路太长,延迟高且信息损耗严重。现代的做法是利用模态原生的能力,让模型直接在端侧处理视觉和力觉信号。
波士顿动力(Boston Dynamics)的加入让这套逻辑有了更强的物理支撑。这意味着机器人不再仅仅是“会说话的机器”,而是拥有了对物理世界的直觉理解。
这也印证了我之前的一个想法:大模型的终局不在屏幕里,而在原子世界里。当 LLM 习得了物理世界的逻辑(比如物体的阻力、重心、碰撞预测),它才真正从“语言统计机”变成了“智能实体”。
具身智能(Embodied AI)正在跑完这最后的一公里。
Jack.