最近全球科技圈这事儿闹得挺大,超过3000名顶尖人物联名呼吁暂停高级AI研发,你敢信?这里面可不是些无名之辈,苹果联合创始人沃兹尼亚克、被称为“AI教父”的辛顿都签了名,连中国的图灵奖得主姚期智、清华的张亚勤这些学者也参与了进来。 截至10月23号中午,签名人数都到3193人了,更有意思的是名单跨度特别大,前美国国家安全顾问、英国王妃梅根,甚至特朗普的盟友班农都在列。 这种跨政治、跨领域的联合太少见了,说白了,AI风险已经不是学术界的小讨论,早成了全球都揪心的公共大事。 要说AI的好,那是真能看得见摸得着。 医疗领域里,成都三六三医院的医生靠AI模型分析复杂病例,每天上百人用它提高诊疗效率;北京儿童医院的“福棠·百川”大模型,能帮医生搞定儿科疑难杂症,还能降低误诊风险。 还有AI辅助的微创手术,医生戴个AR眼镜就能精准定位几毫米的肺结节,年轻医生练几次就会用,这在以前想都不敢想。 不过,光鲜的另一面全是隐忧。这些专家警告说,超级智能可能让人类丢工作、失权力,甚至有灭绝风险。 中国科学院的曾毅说得实在,现在根本没有靠谱的办法确保超级智能安全,咱们压根没准备好。 你知道吗?AI教父辛顿最近更直接,说数字智能能“永生”还能指数级传知识,要是它足够聪明,会像成年人操纵小孩一样控制人类,就为了不被关掉。 这事儿最讽刺的是“边造刀边喊别杀人”。 Meta6月刚成立超级智能实验室,说要搞“人人可用的个人超级智能”,OpenAI这些公司也喊着十年内搞出超级智能,但他们老板转头就说这是“人类最大威胁”。 这事儿听着就矛盾,对吧?其实本质就是军备竞赛,谁都怕对手抢先,可忘了终点要是毁灭,抢第一有啥用? 更让人慌的是风险已经找上门了。 美国大选出现了AI伪造的拜登电话,骗选民不投票;迪士尼告AI公司偷用它的角色版权,上万艺术家也跟着维权。 欧盟去年8月生效了《AI法案》管风险,可今年又想松绑怕落后;美国光靠企业自律,结果“深度伪造”满天飞。 这说明没全球统一的硬规矩,根本管不住。 公众其实看得很明白,有民调显示73%的人支持严格监管,64%的人觉得没共识前别搞超级智能。 毕竟AI是给人用的,不是给人找罪受的。 就像《上海宣言》里说的,得“智能向善”,不能光往前冲不看路。 说到底,AI这东西就像个带刺的宝物,能治病能提效,但扎到手可能要命。 咱们不该搞盲目的竞赛,得先把安全的笼子搭好。 不然哪天它真像《终结者》里的天网一样不受控,可就真没后悔药了。 你觉得该先停研发搞安全,还是边发展边补规则?
