宝玉 · 2026-02-28

Anthropic与五角大楼的AI红线之争

摘要

2026年2月27日,Anthropic被特朗普政府封杀,CEO Dario Amodei首次接受采访披露与五角大楼谈判破裂内幕。争议焦点集中在两条红线:国内大规模监控和全自主武器。Anthropic已向军方开放98%-99%的使用场景,仅拒绝这两项。五角大楼发出3天最后通牒,“妥协"条款充满模糊表述,实际未让步。当晚OpenAI获得相同条款协议,引发关于谁有权拒绝政府的讨论。Anthropic计划诉诸法庭挑战供应链风险认定。

内容框架与概述

文章开篇描述 Anthropic 被封杀当天的突发情况,随后以专访对话形式呈现核心内容。首先阐述两条红线的具体含义和技术逻辑:AI技术发展已超越现有法律框架,国内大规模监控和全自主武器在技术上变得可能但缺乏监管。其次详细披露谈判破裂过程:五角大楼3天最后通牒、充满法律术语的表面妥协、以及"只允许合法用途"的矛盾立场。再次分析事件的核心矛盾——谁有权为AI军事应用画线,Amodei主张技术前沿者应暂时充当守门人。最后揭示事件最大讽刺:Anthropic被封杀数小时后,OpenAI获得了包含完全相同两条红线限制的协议,引发对政府处理方式公正性的质疑。

核心概念及解读

供应链风险认定:此前仅用于卡巴斯基(俄罗斯)和外国芯片供应商等外国对手的标签,首次用于美国公司,Amodei称此举"报复性和惩罚性”。

两条红线:Anthropic拒绝的使用场景——国内大规模监控和全自主武器。技术上已可能但法律未覆盖,Amodei认为技术跑在法律前面需有人守护底线。

“合法使用"措辞:五角大楼坚持使用"all lawful use"表述,实质允许任何法律不禁止的用途,与Anthropic寻求的明确限制相矛盾。

《国防生产法》威胁:五角大楼曾考虑动用该法强制征用Anthropic技术,后又将其列为供应链风险,分析师指出逻辑矛盾。


原文信息


此摘要卡片由 AI 自动生成