全球3000名顶尖科学家紧急联名:暂停AI研发,别让技术狂奔把人类推向毁灭边缘!

亦是缘 2025-10-27 10:37:40

近日,一则牵动全球科技界的消息引发热议:3000多名全球顶尖科学家与科技大佬联合署名,发出暂停一切高级人工智能研发的呼吁。他们在声明中直言核心担忧:这种足以颠覆现有秩序的技术,若失控可能将人类推向毁灭边缘。 这份联名名单的“分量”,足以说明问题的严重性。其中既有苹果联合创始人史蒂夫·沃兹尼亚克,也有被誉为“人工智能教父”、曾因推动深度学习获誉的乔治·辛顿;从美国前国家安全顾问布雷特·麦戈克,到长期关注科技伦理的公众人物,跨领域、跨身份的集体发声,打破了以往科技圈“各自为战”的讨论格局。 大佬们的担忧绝非空穴来风,更不是“危言耸听”。如今,AI风险已成为全人类共识性的焦虑:算法偏见、数据隐私泄露早已显现,而高级AI可能带来的就业替代、甚至超出人类控制的自主决策能力,更像悬在头顶的“达摩克利斯之剑”。 值得关注的是,两位来自东方大国的图灵奖得主,姚期智与张亚勤,也在联名名单之列,他们特别强调:“人工智能的发展必须以‘安全可控’为前提,任何突破都不能脱离人类的监管框架。” 然而与这份“暂停呼吁”形成鲜明对比的是,科技巨头们的研发竞赛仍在加速。OpenAI与谷歌暗地里的技术比拼从未停歇,双方都在紧锣密鼓推进更高级AI模型的迭代;Meta更于近期高调宣布成立“超级智能实验室”,明确将攻关“无监督学习”技术——这种无需大量人工标注数据就能自主学习的技术,一旦成熟,可能催生出具备常识判断与逻辑推理能力的AI。 对此,不少科学家发出严厉警告:“当前人类对AI的风险预判、管控能力,远跟不上技术狂奔的速度,我们根本没准备好应对‘人造超级智能’可能带来的冲击。” 就像有网友精准点评的那样:“发展人工智能,不能‘唯速度马首是瞻’,更不能为了争‘全球第一’而急功近利。”在这场关乎全人类未来的技术革命里,“快”从来不该是唯一目标,只有把“安全”刻在每一步研发的基因里,AI才能真正成为服务人类的工具,而非失控的风险。 各位读者怎么看?欢迎来评论区讨论。

0 阅读:14
亦是缘

亦是缘

感谢大家的关注