Anthropic重磅指控:中国三大AI实验室涉嫌大规模"蒸馏"Claude,1600万次交互窃取核心技术
发布时间: 2026年2月24日 16:40 | 来源: TechCrunch / Anthropic官方博客 | 阅读时间: 12分钟
事件概述:一场规模空前的AI模型"蒸馏"攻击
2026年2月23日,美国AI公司Anthropic发布了一份震撼业界的调查报告,正式指控三家中国AI实验室——DeepSeek、Moonshot AI和MiniMax——通过模型蒸馏技术大规模窃取Claude的核心能力。据Anthropic披露,这三家公司创建了超过24,000个虚假账户,与Claude进行了超过1600万次交互,专门针对Claude最差异化的能力:智能体推理、工具使用和编程能力。
这一指控不仅揭示了AI行业竞争的白热化程度,更在美国政界引发了对AI芯片出口管制政策的激烈讨论。Anthropic明确指出,如此规模的蒸馏攻击"需要访问先进的芯片",这进一步加强了实施出口管制的理由。
什么是模型蒸馏?双刃剑技术
模型蒸馏(Model Distillation)是一种常见的AI模型训练技术,本质上是一种"知识迁移"方法。具体来说:
- 基本原理:使用一个大型、高性能的"教师模型"(如Claude、GPT-4)生成大量高质量的输入-输出对,然后用这些数据训练一个较小的"学生模型"
- 合法用途:AI实验室常用蒸馏技术创建更小、更便宜、运行更快的模型版本,便于部署到资源受限的环境
- 争议用途:竞争对手可以利用蒸馏技术"复制"其他实验室模型的核心能力,而无需投入巨额研发成本
Anthropic在报告中强调:"蒸馏是AI实验室在自己模型上使用的合法训练方法,但竞争对手可以用它来本质上抄袭其他实验室的作业。"
蒸馏攻击 vs 传统模型训练
| 对比维度 | 传统模型训练 | 蒸馏攻击 |
|---|---|---|
| 数据来源 | 原始互联网数据、人工标注 | 直接从竞争对手模型获取 |
| 成本投入 | 数亿至数十亿美元 | API调用费用(相对极低) |
| 研发周期 | 数月到数年 | 数周到数月 |
| 能力获取 | 逐步探索和积累 | 直接复制成熟能力 |
三大实验室的"分工":各有侧重的蒸馏策略
Anthropic的调查揭示了这三家中国AI实验室在蒸馏攻击中的不同策略和重点:
DeepSeek:基础逻辑与对齐能力
Anthropic追踪到来自DeepSeek的超过15万次交互,主要目标是:
- 提升基础逻辑推理能力
- 优化模型对齐(Alignment)技术
- 特别针对"政策敏感查询的审查安全替代方案"进行优化
值得注意的是,DeepSeek在一年前凭借其开源R1推理模型震惊硅谷,该模型在性能上接近美国前沿实验室水平,但成本仅为后者的一小部分。据The Information报道,DeepSeek即将发布的DeepSeek V4模型在编程能力上有望超越Anthropic的Claude和OpenAI的ChatGPT。
Moonshot AI:智能体与工具使用
Moonshot AI的蒸馏攻击规模更为庞大,超过340万次交互,重点针对:
- 智能体推理(Agentic Reasoning)和工具使用
- 编程和数据分析能力
- 计算机使用智能体(Computer-Use Agent)开发
- 计算机视觉技术
Moonshot AI在上个月刚刚发布了新的开源模型Kimi K2.5和一个编程智能体,显示出其在智能体领域的雄心。
MiniMax:编码与工具编排
MiniMax的攻击规模最为惊人,超过1300万次交互,主要针对:
- 智能体编码能力
- 工具使用和编排(Orchestration)
Anthropic表示,他们能够观察到MiniMax在最新版Claude模型发布时,将近一半的流量重定向到窃取该模型能力的活动上。这种"实时跟踪"能力表明MiniMax对Claude的新功能有着极强的兴趣和快速的响应能力。
地缘政治背景:AI芯片出口管制之争
这一蒸馏攻击事件的曝光正值美国对AI芯片出口管制政策的激烈争论之际:
政策时间线
- 2025年底: 特朗普政府正式允许Nvidia等美国公司向中国出口H200等先进AI芯片
- 2026年1月: 商务部可能批准更多高端芯片出口
- 2026年2月: Anthropic发布蒸馏攻击报告,呼吁加强管制
Anthropic在报告中明确指出:"蒸馏攻击因此强化了出口管制的合理性:限制芯片获取既限制了直接模型训练,也限制了非法蒸馏的规模。"
业界反应
"一段时间以来,中国AI模型快速进步的部分原因明显是通过蒸馏窃取美国前沿模型。现在我们知道了这个事实。这应该给我们更多令人信服的理由,拒绝向这些公司出售任何AI芯片,这只会让他们进一步受益。"
— Dmitri Alperovitch,Silverado Policy Accelerator智库主席、CrowdStrike联合创始人
安全隐患:被剥离的安全防护
Anthropic警告说,蒸馏攻击不仅威胁美国在AI领域的主导地位,还可能带来国家安全风险:
- 安全防护缺失:通过非法蒸馏构建的模型不太可能保留原始模型的安全防护机制
- 危险能力扩散:诸如开发生物武器或进行恶意网络活动等危险能力可能在防护被剥离的情况下扩散
- 威权政府应用:Anthropic指出威权政府可能将前沿AI用于"进攻性网络行动、虚假信息宣传等"
Anthropic强调,他们和其他美国公司构建了防止国家和非国家行为者使用AI进行恶意活动的系统,但蒸馏模型可能完全剥离这些保护。
OpenAI的类似指控
值得注意的是,这并非美国AI公司首次提出类似指控。本月早些时候,OpenAI向众议院议员发送了一份备忘录,指控DeepSeek使用蒸馏技术模仿其产品。这表明模型蒸馏攻击已成为美国AI行业面临的共同挑战。
然而,这些指控也引发了一些争议。批评者指出,模型蒸馏在AI领域是一种广泛使用的技术,如何界定"合法蒸馏"与"恶意蒸馏"仍存在灰色地带。此外,一些专家质疑,如果中国公司能够通过蒸馏快速提升模型能力,是否也说明了基础技术的可获取性和AI能力的民主化趋势?
Anthropic的防御措施与行业呼吁
Anthropic表示,他们将继续投资于使蒸馏攻击更难执行、更容易识别的防御技术。同时,他们呼吁:
- AI行业:加强技术防御和信息共享
- 云服务提供商:加强对异常流量模式的监控
- 政策制定者:考虑将模型蒸馏滥用纳入监管框架
对AI行业的影响与启示
短期影响
- API安全升级:预计主要AI实验室将加强对API使用的监控和限制
- 账户验证强化:可能需要更严格的身份验证来防止大规模虚假账户
- 出口管制收紧:美国政府可能重新评估AI芯片出口政策
长期趋势
- 技术壁垒重构:模型蒸馏可能促使AI公司重新思考如何保护核心知识产权
- 竞争格局变化:如果蒸馏成为快速提升能力的捷径,可能改变AI竞赛的动态
- 国际合作挑战:此类事件可能加剧AI领域的技术民族主义趋势
结论:AI竞赛进入新阶段
Anthropic对中国三大AI实验室的指控,标志着全球AI竞争进入了一个新的、更加复杂的阶段。1600万次交互、24,000个虚假账户的惊人规模,不仅揭示了AI模型蒸馏作为"技术捷径"的吸引力,也暴露了当前AI行业在知识产权保护方面的脆弱性。
在地缘政治层面,这一事件为AI芯片出口管制的支持者提供了新的论据。然而,它也提出了一个更深层次的问题:在AI技术快速发展的今天,如何在促进创新、保护知识产权和防止技术滥用之间找到平衡?
无论这一争议的最终走向如何,有一点是明确的:AI行业的竞争已经超越了单纯的技术比拼,进入了涉及国家安全、知识产权和国际关系的复杂博弈场。对于AI公司、政策制定者和整个社会而言,如何应对这一新常态,将是未来数年需要共同面对的挑战。
关于本文: 本文基于Anthropic官方博客报告和TechCrunch等媒体报道整理。文中涉及的数据和指控均来自Anthropic公开披露的信息。对于蒸馏技术的合法性和道德边界,业界存在不同观点,本文力求客观呈现多方立场。