FII9峰会上,谷歌前CEO施密特和AI教母李飞飞进行了一场有意思的对话。硅谷那

量子位看科技 2025-11-12 17:51:51

FII9峰会上,谷歌前CEO施密特和AI教母李飞飞进行了一场有意思的对话。硅谷那帮人现在集体看好3年内出现超级AI,但这两位都不太同意。施密特管这种现象叫"旧金山共识"——大多数人都信3到4年内会出现超级AI。他个人觉得会更久,但复合效应会加速这个过程。现在的AI在很多事上确实像个超人:翻译十几种语言、快速计算、掌握从化学到生物的海量知识。但李飞飞指出这种"超人"其实只是规模和速度的问题,不是真正的超级智能。真正的问题在哪儿,AI能成为牛顿或爱因斯坦吗?李飞飞扔出了个致命的例子。想象有台电脑装着1902年所有的物理学知识,能凭这些自己推导出广义相对论吗?不行。给AI输入所有星体运动的观测数据,它能推出牛顿运动定律吗?也不行。人类能做到这些,靠的是创造力、抽象能力,以及从现有框架里跳脱出来的能力。这正是AI现在缺的。施密特补充了个更技术的障碍。今天的AI是围绕固定目标训练的,但真正的创造性推理需要系统能在思考过程中动态改变、甚至重新定义目标。想达到真正的超级智能,光堆算力根本不够,还需要算法上的根本突破。而这个突破在哪儿?谁都不知道。但施密特也承认,单从计算能力上看,最近的AI智商测试成绩已经达到148,这很离谱。每个人口袋里都装一个爱因斯坦级别的智力,配上全球化的通信和廉价设备,这对全球来说是改游戏规则的。这里面有个隐藏的坑:财富被创造出来,但不一定被平等分配。施密特指出,虽然AI能创造巨大经济价值,但这种技术具有强大的网络效应,集中到少数先行者和大公司手里的可能性极大。早期采用者、治理良好的地区、有资本积累的地方,会获得不成比例的回报。而对于资源相对匮乏的地方,差距会被拉得更大。李飞飞则拒绝了施密特关于"5年内解决所有基础数学、物理、化学问题"的说法。她甚至打赌这不会发生。原因很简单:人类最伟大的能力之一就是提出新问题。爱因斯坦说过,科学的大部分就是问对问题。我们永远会发现新的根本性问题等着被解决。超级智能时代不是问题的终结,只是新问题的开端。在她新创办的World Labs公司,李飞飞在构建"大型世界模型",让AI能理解和推理三维物理世界。她预测未来的世界是虚拟和现实的混合体——远程手术、沉浸式教育、建筑设计,都会融合增强现实、虚拟现实和物理现实。但这不是说真实世界消失了,只是人类的生产力、娱乐、教育会更多地在这个混合宇宙中进行。最后的问题触及了底线:超级智能如果真的来了,人类最后的不可替代功能是什么?施密特开玩笑说,人类永远会想看人类竞争,知道机器人能100%击败我们。就像体育比赛,你想看的是人的对抗,不是自动化的胜负。但李飞飞说了更深层的东西。无论AI多强,我们的世界必须保持以人为中心。人类的尊严、代理权和福祉,必须永远是所有技术、商业、产品和政策设计的中心。这不是可选项,这是底线。人机协同才是正确的打法。人类负责设定目标、提出下一个问题,机器负责以无敌的规模和速度去执行。人类的核心价值是判断力和对意义的定义,这是AI永远替代不了的。有了无限计算能力后,人类反而有了闲暇去凝视更深邃的未知,去提出那些在生存压力下从未被发现过的问题。这才是人类在智能之巅的永恒价值。

0 阅读:0
量子位看科技

量子位看科技

感谢大家的关注