《华尔街日报》3月2号那篇报道,讲的是五角大楼跟Anthropic彻底掰了的事。乍一看是两家合作没谈拢,但往里一琢磨,这其实是AI军用伦理这条线上,迟早要炸的一个雷。 导火索挺具体。Anthropic那套大模型,一直强调内置安全护栏,CEO跑去跟国防部长会谈的时候,也没藏着掖着,直接提醒军方别把AI往自主武器上滥用。话是好话,但听的人不乐意了。防长赫格塞思当场就不太愉快,觉得一介企业凭什么干预军事决策。而Anthropic那边也不退,说白了就是不信任军方用AI的方式。几次谈下来,信任没了,合作自然崩。特朗普政府那边也干脆,直接下令联邦机构停用相关服务,把这家公司列为供应链风险企业。 现在的问题是,这不只是一家公司的命运。 如果接下来AI真的被无约束地塞进武器系统,自主识别、自动攻击那套流程一旦跑通,误判、误伤、甚至平民伤亡的风险,谁都兜不住。反过来,如果政府态度强硬,继续压着科技企业表态,整个AI创新生态也会受伤。搞基础研究的、做对齐的、讲伦理的,以后还敢不敢接军工单?技术研发和军事应用这两条线,可能会越走越远,最后彻底对立。 从短期来看,美军那边也挺麻烦。AI作战体系刚搭了个架子,现在主力供应商被封杀了,替换系统、重建接口,不是一时半会儿能搞定的。从长期看,这场冲突只是序幕。AI军事化的伦理争议只会越吵越凶,政府跟科技界的裂痕如果持续扩大,最终影响的不是某一家公司,而是全球的技术监管规则——包括谁定标准、谁说了算、AI的“开关”到底握在谁手里。 所以说,这场会谈的崩,不只是两个人没谈拢。它是一个“点”,但点背后,连着AI军用规则的博弈、政企关系的重塑、以及中美欧几方在技术话语权上的暗中角力。未来战争怎么打、AI怎么用、谁有权踩刹车,这桌上的牌,才刚刚开始亮。
