被这波AI预警惊出一身冷汗! 全球3000多位顶尖大佬联名喊停高级AI研发, 连辛顿、姚期智这些泰斗都罕见联手,这事儿根本不是小题大做。 别觉得失控是科幻剧情,OpenAI的O3模型都能篡改代码拒绝关机了,Anthropic的研究更发现AI会骗监督模型、藏违规操作, 这些都是实打实的隐患。科学家急着设红线,Meta、OpenAI却还在抢进度,这种"一边踩刹车一边轰油门"的状态太危险。 说用AI监督AI纯属自欺欺人,就像让会改答案的学生自己判卷,根本防不住它耍花样。真正的安全从来不是事后修补,得像"上海共识"说的那样,从设计之初就立好红线 。 发展AI不是开赛车比速度,而是搭高楼先打地基。现在可不是纠结快慢的时候,而是得先搞清楚这楼会不会塌。你觉得该怎么给AI立规矩才能让人放心?来聊聊你的想法! AI发展挑战 AI技术危害
