人工智能聊天机器人Claude的创造者Anthropic公司于本周一在一篇博客文章中表示,三家中国人工智能公司利用Claude,以不当方式获取能力来改进其自身模型。该公司同时以此为由,呼吁对芯片实施出口管制。
此次声明紧随本月初OpenAI的一份备忘录之后。彼时,这家初创公司警告美国立法者,中国AI公司深度求索(DeepSeek)正瞄准ChatGPT的制造商及美国领先的AI公司,意图复制模型并将其用于自身训练。
Anthropic称,深度求索、月之暗面(Moonshot)和MiniMax通过使用约24,000个虚假账户,与Claude进行了超过1600万次交互,这违反了Anthropic的服务条款和区域访问限制。该公司指出,这些公司使用了一种名为“蒸馏”的技术,即利用更强大模型的输出来训练能力较弱的模型。
“此类活动正变得愈发密集和复杂。采取行动的窗口期很窄,且威胁已超出任何单一公司或地区。”Anthropic警告称,通过非法手段“蒸馏”出的模型缺乏必要的安全防护措施,会带来重大的国家安全风险。如果这些模型被开源,风险将成倍增加,因为其能力将不受任何单一政府控制地自由扩散。
在最新一轮融资中筹集了300亿美元、目前估值达3800亿美元的Anthropic表示,“蒸馏”攻击事件支持了实施出口管制的理由:限制芯片获取既能削弱直接的模型训练能力,也能减少不当“蒸馏”的规模。
Anthropic指出,深度求索的操作旨在获取跨多样化任务的推理能力,并为涉及政策敏感性的查询创建符合审查要求的替代方案;月之暗面的目标则在于智能体推理和工具使用,以及编码和数据分析。MiniMax的目标是智能体编码、工具使用与编排。Anthropic在其活动期间、即MiniMax发布其正在训练的模型之前,侦测到了该活动。
博客文章称:“当我们在MiniMax活动期间发布新模型时,他们在24小时内就调整了方向,将近一半的流量转向以获取我们最新系统的能力。”
截至发稿,深度求索、月之暗面和MiniMax均未立即回应置评请求。
分析大模型:gemma2
得分:-70
原因:
报道引述美国公司的指控,将中国AI公司的行为描述为“违规”、“不当”,并强调其带来的“国家安全风险”,以此为由支持对华芯片出口管制。整体叙事将中国公司置于被指控和防范的位置,隐含负面定性。但报道本身属于事实陈述,引用了具体指控和数据,并提及了涉事公司未回应,未使用极端情绪化词汇,因此负面情绪强度并非最高。
原文地址:Chinese AI companies ‘distilled’ Claude to improve own models, Anthropic says
新闻日期:2026-02-24