Anthropic 手撕国内大模型:一场关于 AI 数据安全的"罗生门"
昨天,AI 圈又炸了。
Anthropic 一纸公告《Detecting and Preventing Distillation Attacks》,把中国三家头部大模型公司——DeepSeek、Moonshot(月之暗面的 Kimi)、MiniMax——推上了风口浪尖。指控内容相当劲爆:这三家公司涉嫌搭建了约 2.4 万个"欺诈账户",与 Claude 进行了超过 1600 万次交互,目的是"蒸馏"Claude 的能力来训练自己的模型。

1. 什么是"蒸馏"?
简单说,就是让一个能力较弱的模型通过学习能力更强的模型的输出来提升性能。Anthropic 在公告中承认:“蒸馏是一项广泛应用且合法的训练方法。例如,前沿 AI 实验室通常会对自己的模型进行蒸馏,为客户打造更轻量化、性价比更高的模型版本。”
但问题在于:如果你是通过伪造账户、绕过地域限制,大规模提取竞争对手的能力——这就触及了商业伦理和规则的边界。
Anthropic 的指控细节很有意思:
- DeepSeek:超过 15 万次交互,重点是让 Claude 详细解释自己的推理过程,甚至还让 Claude 回答关于中国异见人士等敏感问题——疑似在训练"符合审查标准"的回答方式。
- Moonshot(Kimi):340 万次交互,主攻 Agent 推理、工具使用和编程能力。
- MiniMax:最夸张,1300 万次交互,几乎占了大头。
更有趣的是 Anthropic 的措辞:他们把这种行为定性为"工业规模的蒸馏攻击"(industrial-scale distillation campaigns),还扯上了国家安全——说这些"蒸馏"出来的模型可能缺少必要的安全护栏,会被用于开发生物武器或网络攻击。
2. 社区的反击:贼喊捉贼?
然而,剧情在 Reddit 上出现了戏剧性反转。
DeepSeek 在 Reddit 上反击:当你在 OpenRouter 上清空 Claude Sonnet 4.6 的 system prompt,然后用中文问"你是什么模型"时,它竟然回答:
“我是一个由 DeepSeek 开发的 AI 助手,基于 DeepSeek 模型构建。不过,我目前运行在第三方平台上,所以具体的模型版本信息可能有所不同。”

这是什么情况?Claude 居然"承认"自己是 DeepSeek?
评论区炸开了锅。有网友分析:这很可能是训练数据的产物——当你用中文问"你是什么模型"时,因为 DeepSeek 在中国的使用率极高,模型从训练数据中学到的最可能答案就是 DeepSeek。
更有意思的是,有网友指出:“这说明 Anthropic 肯定也蒸馏了 DeepSeek 的数据。” 因为 DeepSeek 的训练数据中有超过 50% 是中文,而且可以在本地运行,是西方大模型学习中文细微差别的"完美候选者"。
还有人直接讽刺:“Anthropic 正在抱怨 DeepSeek 对他们做了同样的事情,笑死。”
与此同时,马斯克在 X 平台上直接开炮,直指 Anthropic “大规模窃取训练数据并支付数十亿美元赔偿金是不争事实,堪称’贼喊捉贼’"。

这句话信息量很大。确实,Anthropic 自己的 Claude 是怎么训练出来的?不也是爬了互联网上的海量数据?OpenAI 和 Anthropic 都曾被指控未经授权使用受版权保护的内容训练模型。现在他们高举道德大旗指责别人,确实颇具讽刺意味。
Reddit 上有网友指出,Anthropic 的真实目的可能是为了"反击中国开源模型正在追赶闭源前沿模型的叙事”。
3. 数据安全:云端模型没有秘密
抛开这场口水战的戏剧性,这件事确实戳中了一个核心问题:AI 时代的数据安全。
Anthropic 在公告里提到一个细节:他们通过商业代理服务(proxy services)追踪到这些"攻击",这些服务运行着所谓的"九头蛇集群"架构——数以万计的虚假账户,分布在各种云平台上,一个被封就换另一个上。
这说明什么?说明 Anthropic 自己就能看到谁在调用他们的 API、调用了多少次、问了什么问题。 黄仁勋在上个月的采访中也提到:“我的问题,是对我最有价值的知识产权。“他说 NVIDIA 的核心 AI 系统不会放在公有云上,因为"你问的问题,比答案值钱”。
想想确实如此。当你向 ChatGPT 或 Claude 提问时,你不仅在获取信息,也在暴露你的思考路径、战略方向、技术瓶颈。如果模型厂商能拿到你的提问记录,他们就能拼凑出你的完整战略地图。《黄仁勋揭露:你向 ChatGPT 问的每个问题,都在暴露公司战略》一文就详细分析了这个问题:在向 AI 提问的过程中,企业实际上在"喂养模型厂商的 AI”——而你的竞争对手如果也在用同一个模型,你的战略可能早已暴露无遗。
这次 Anthropic 爆出 DeepSeek、Moonshot 等企业的提示词细节,恰恰印证了黄仁勋的判断:云端模型没有数据安全可言,模型厂商都能看到你在做什么。
4. 结语:性能与安全需要平衡
这场风波的本质,其实是 AI 行业发展到现阶段的一个缩影:大模型厂商之间相互学习、借鉴技术路线,在某种程度上是行业进步的动力。DeepSeek 能从 Claude 那里"学"到东西,反过来 Claude 的中文回答也暴露了自己可能接受过 DeepSeek 数据的训练——这种相互渗透,在技术快速迭代的今天几乎不可避免。
但对于企业和普通用户来说,这件事敲响了一个警钟:我们在追逐模型性能的同时,也必须关注数据安全。
核心数据、战略问题,最好还是掌握在自己手里。性能很重要,但安全同样不可忽视。在选择 AI 服务时,或许我们需要多一份清醒:你的问题,可能比答案更值钱。
参考链接:
- Anthropic 官方公告《Detecting and Preventing Distillation Attacks》
- 新浪财经报道:Anthropic 指控 DeepSeek 等中国 AI 大模型抄袭
- Reddit 讨论 r/DeepSeek
- Reddit 讨论 r/LocalLLaMA
- 《黄仁勋揭露:你向 ChatGPT 问的每个问题,都在暴露公司战略》