Anthropic 指控中国实验室进行大规模蒸馏攻击
摘要
Anthropic 公开指控三家中国实验室 DeepSeek、Moonshot AI 和 MiniMax 通过约 24,000 个虚假账户进行了超过 1600 万次 Claude 交互,涉嫌工业规模的模型蒸馏攻击。指控规模差异显著,MiniMax 比 Moonshot 高一个数量级,Moonshot 又比 DeepSeek 高一个数量级。社区反应呈现两极分化,一方认为这是实验室们在网上训练数据后抱怨被复制的虚伪行为,另一方则认为这种规模的行为与传统数据抓取存在本质区别。此事件标志着前沿模型安全保护模式的转变,从单纯的权重保密转向 API 滥用抵抗。
内容框架与概述
事件核心是 Anthropic 对三家中国实验室的正式指控,指控其通过大规模虚假账户套取 Claude 模型能力。指控的时间点和规模引发广泛关注,MiniMax 被抓到正在进行的蒸馏操作,而 DeepSeek 的行为据推测主要发生在 V3 和 R1 开发期间。值得注意的是,Qwen 和 Z.ai 未在指控名单中。
社区舆论呈现鲜明对立。批评者以 Elon Musk 和多位 AI 研究者为代表,指出实验室们在互联网上训练数据后却抱怨别人复制,存在明显虚伪性。支持方则强调蒸馏的特殊性,尤其是可以复制工具使用和代理行为,并可能绕过安全控制。OpenAI 此前也提出了类似但较少公开的投诉。
该事件折射出更深层的地缘政治和技术竞争背景。Dario Amodei 近期一直在呼吁对中国实施更严格的出口管制,而此次指控恰逢 DeepSeek V4 发布前夕。这重新引发了一个关键问题:如果能力可以通过输出大规模复制,出口管制是否还有意义。前沿模型的保护策略正在从单一的权重保密和计算资源稀缺性,转向更全面的 API 滥用抵抗体系,包括账户欺诈检测、速率限制规避检测、行为指纹识别和水印技术。
核心概念及解读
模型蒸馏(Model Distillation):通过让一个模型模仿另一个模型的输出来提取其能力和知识的技术,在此案例中被指控为未经授权的大规模能力转移。
API 滥用抵抗(API Abuse Resistance):保护前沿模型的新兴安全范式,包括账户欺诈检测、速率限制、行为指纹识别和水印技术等多种防护手段。
出口管制(Export Controls):政府限制敏感技术向特定国家或实体出口的政策工具,在 AI 领域的效力因模型蒸馏问题而受到质疑。
工具使用行为(Tool Use Behaviors):模型使用外部工具和执行代理任务的能力,这类高级能力被认为比单纯的文本生成更难通过蒸馏复制。
饱和与污染(Saturation and Contamination):基准测试不再有效的状态,可能因为任务已完全解决或测试集被污染,如 SWE-Bench Verified 被弃用的案例。
原文信息
| 字段 | 内容 |
|---|---|
| 原文 | [AINews] Anthropic accuses DeepSeek, Moonshot, and MiniMax of >16 million industrial-scale distillation attacks |
| 作者 | Latent.Space |
| 发表日期 | 2026-02-24 |
此摘要卡片由 AI 自动生成