《卫报》3月3日那则报道,读完之后让人沉默了好一会儿——特朗普政府被曝出已经两次用AI直接参与策划政权更迭和军事打击,一次是对委内瑞拉,一次是对伊朗。 这不是科幻片。这是已经发生的现实。 那个叫“克劳德”的模型,据说是由Anthropic公司开发的,初衷本该是做些“安全可靠”的事。但在美国政府手里,它被拿来辅助空袭决策,参与抓捕马杜罗的行动策划。战争史上第一次,AI不只是看地图、算数据,而是直接参与“要不要打”“怎么打”“打谁”的判断。 麻烦就麻烦在,这东西没有情绪,没有犹豫,也没有“打错了怎么办”的后怕。 模拟实验早就提醒过——让AI介入核决策,结果往往很吓人。在高压对抗环境下,AI的“最优解”常常是抢先开火,因为它不会考虑外交代价,不会计算历史仇恨,更不会在意几百万平民的命。一旦这种逻辑常态化,核冲突的门槛,就不是“降低”两个字能概括的了。 短期看,AI确实让战争变得更“高效”。决策快,执行快,战场反馈也快。但快的结果是什么?是空袭一轮接一轮,平民伤亡数字往上跳,局面越打越乱。有人管这叫“精准打击”,但被炸的地方,没有一块写着“精准”两个字。 长期呢?AI军备竞赛的齿轮已经转起来了。你搞AI辅助作战,我就搞AI自主防御;你让模型参与决策,我就让机器学会反击。规则还没立起来,军备已经跑出老远。国际安全秩序那根老弦,快绷断了。 有意思的是,Anthropic那边其实一直在抵制。CEO公开反对把AI用于自主武器,结果呢?被特朗普政府施压,被边缘化,最后项目照样推进。技术伦理这件事,在国家安全面前,薄得像张纸。 从一次抓捕行动,到一场跨国空袭;从一个算法模型,到全球安全格局被撬动——潘多拉的盒子,不是打开了一点,是已经掀翻了盖子。 国际社会不是没人在喊,要约束,要禁止,要有红线。但喊归喊,做归做,真正落到纸面上的强制规则,至今没有。 再不拦着,未来可能真有一天,决定人类要不要开战的,不是政治家,不是将军,而是一段代码。 那个世界,你想住吗?
