Axios援引知情人士的报道,国防部长Pete Hegseth即将切断与Anthropic的业务联系,并将这家AI公司指定为“供应链风险”——这意味着任何想与美国军方做生意的人都必须切断与该公司的联系。
这揭示了美国国防部与AI初创公司Anthropic之间持续数月的紧张谈判即将破裂。 Anthropic是开发Claude AI模型的公司,以强调AI安全和伦理使用闻名。
该公司去年夏天与五角大楼签署了一份价值高达2亿美元的合同,允许军方在机密系统中使用Claude,但Anthropic坚持保留一些限制:禁止用于大规模监视美国人、促进暴力或开发无人类干预的致命武器(如自主武器系统)。
五角大楼官员对此不满,要求Anthropic移除这些限制,以实现“无限制使用”。谈判僵持不下后,国防部长Pete Hegseth考虑不仅终止合同,还将Anthropic列为“供应链风险”。这一罕见惩罚通常针对外国对手,将迫使所有军方供应商和合作伙伴切断与Anthropic的任何业务往来,对Anthropic造成毁灭性打击。一位高级官员表示,这将是“一个巨大的麻烦”,并强调要让Anthropic“为此付出代价”。
值得一提的是,五角大楼最近在针对委内瑞拉领导人Maduro的突袭行动中使用了Anthropic的AI,这凸显了合同的重要性。这一事件反映了AI技术在军事应用中的伦理冲突:军方追求最大化效能,而公司担心滥用风险。Anthropic是国防部与多家AI公司(如OpenAI、Google等)合作的一部分,但它是目前唯一在军方机密系统中可用的模型。