现在机器人行业很多展览会,或者Workshop,旁边可能会有工作人员在观众视觉死角拿着遥控器在控制吗……然后美其名曰是AI自我识别的……可以说,机器人行业当下至少有 40%–70% 的展会 Demo,都处于半托底+半忽悠的状态。不是所有都骗人,但绝大多数都不是观众以为的纯 AI 自主。坦白来讲,展会为啥这么操作,因为干扰项太多了,光线变化非常大,补光灯闪光灯各种LED屏幕会干扰包括地面反光纹理混乱视觉识别就算平常没问题展会也会出问题,而且展会你弄个直播都会信号干扰你以为机器人不会么...同频段设备上千个,各种信号加一起,基本上视觉、听觉、电磁信号彻底崩溃。 所以如果替机器人行业的朋友做解释的话,在真实环境里能跑 95% 成功率的机器人,放展会上能跑到 70% 就算是神仙。所以某种情况下,为了补齐干扰,企业不得不使用遥控器托底+限定路线和预先编程的方式,用脚本触发的trigger去做弥补。因为我在从业车企之前算是了解过这个行业,很多年过去我都在搞汽车,最近和几位老同学聚会才得知,这个行业发展的非常不错,但成熟度也是有待提高的,所以加上很多汽车圈的朋友都关切这个行为,我们可以从展会的角度来变相说明一下:简要来说,机器人AI目前的发展非常非常的初级,无论硬件还是软件都处于萌芽状态,我们原则上需要鼓励,并且机器人toB比较多,还到不了伤害用户的程度,顶多就是拉投资+圈钱阶段,展会容错率为 0翻一次车,就会被说“PPT 厂”,再加上AI目前根本达不到开放环境完全可靠自主,国外也是一样的,Tesla Optimus、Unitree包括Boston,都做过脚本级别的演示,当然,行业发展来看,今后一定是向着无托底趋势发展的,比如说世界模型描述的基本就是这个事情,让机器人有一个内心模拟感,控制器也从传统的PID向学习型前一,边缘算力需求保障,Vision Language Acition也就是VLA正在飞速突破,基本上我们私下里预测五年内基本就会在国内看到非常成熟的完全自主场景的机器人。但很可惜,现在资本盲区很大,需要投入大量的人力去甄别谁是精英谁是蠢货。


