Anthropic:颠覆世界的公司如何被颠覆
摘要 本文讲述了Anthropic作为全球最具颠覆性的AI公司,在追求AI安全与商业化之间的艰难平衡。该公司因拒绝五角大楼要求全面合法使用AI的条款,反对将其技术用于全自动武器系统和大规模监控,导致双方合作破裂。特朗普政府将其列为国家安全供应链风险,命令政府全面停用Anthropic软件,OpenAI趁势接手军方合同。这场冲突揭示了谁有权为这种被视为强大武器的新兴技术设定界限的核心问题。
内容框架与概述 文章以Anthropic红队在酒店房间紧急处理AI可能帮助恐怖分子制造生物武器的事件开篇,引出该公司在AI安全领域的特殊定位。作为最重视安全的前沿AI实验室,Anthropic既要推进技术发展,又要防范从网络攻击到生物安全威胁的各种风险。这种责任在31岁的红队负责人Logan Graham看来,意味着没有任何成年人在掌控局面,你必须自己负责。
核心冲突发生在2025年初,Anthropic与五角大楼的关系急转直下。此前一年多,Claude一直是美国政府的首选AI模型,也是首个获准用于涉密用途的前沿系统。但当军方试图重新谈判合同,要求允许所有合法用途时,CEO Dario Amodei坚决反对。他不希望Anthropic的AI用于全自动武器系统或对美国公民进行大规模监控。军方高层对此极为不满,认为私营公司不应干涉军事指挥链。
这场对抗的深层原因引发广泛猜测。Amodei在泄露的内部备忘录中称,真正原因是Anthropic未向特朗普捐款、未给予独裁者式赞美、支持AI监管、坚持说出AI政策真相以及坚守红线而非制造安全表演。五角大楼技术负责人Emil Michael驳斥这是彻底捏造,称决策是因为Anthropic的姿态让作战人员面临风险。无论如何,这家历史上增长最快的软件公司现在不得不与自己的政府交战。
核心概念及解读
前沿红队:Anthropic内部专门研究Claude先进能力并预测最坏情况的团队,从网络攻击到生物安全威胁进行测试。他们曾在发现AI可能帮助制造生物武器后,将新模型发布推迟10天以确保安全。
供应链风险认定:特朗普政府对Anthropic施加的标签,是美国已知首次将此 designation 用于本国公司。这导致政府停用Anthropic软件,任何与政府有业务往来的公司都被禁止与Anthropic合作,仅适用于军事合同。
安全红线:Anthropic在AI部署中坚持的伦理界限,包括拒绝将技术用于全自动武器系统和大规模监控美国公民。这种立场虽然赢得了部分客户支持,但也导致与五角大楼关系破裂。
悬崖驾驶:Anthropic员工对AI发展风险的比喻。随着模型变得更快更好,可能超出人类处理速度,公司正以每小时75英里而非25英里的速度行驶在悬崖公路上,任何错误都可能是致命的。
原文信息
| 字段 | 内容 |
|---|---|
| 原文 | The Most Disruptive Company in the World |
| 作者 | Harry Booth |
| 发表日期 | 2026-03-11 |
此摘要卡片由 AI 自动生成