【文/观察者网专栏作者 关心】

最近,美国人工智能巨头Anthropic公开指控DeepSeek等三家中国AI企业,在科技圈掀起了不小的波澜。这家美国企业声称,DeepSeek、月之暗面和MiniMax三家中国AI企业对其旗舰模型Claude发动了所谓“工业级蒸馏攻击”,用1600万次请求、上万个虚假账户,系统性地“抽取”模型能力。消息一出,迅速占领了各大科技媒体的头条。

首先值得注意的是,Anthropic公司先是上周对美国国会提交了备忘录,本周一又在其官方博客重复了相同的指控,其炒作意图十分明显,且超出了一般的商业竞争,而是试图上升到政治层面阻挠中国AI企业的发展。

“蒸馏”是将大参数模型迁移到小模型的常用技术,更类似于模仿学习,而非抄袭或者搬运。Anthropic将蒸馏技术污名化,试图抹黑中国竞品,给自己脸上“贴金”。其声明文章越看越不像安全报告,倒更像一份精心包装的产品宣传册。

Anthropic公司特意强调,这三家实验室专挑Claude“最具差异化的能力”下手,比如代理推理、工具使用、编程。这是在指控,还是在向潜在客户喊话“我们的模型强到对手只能靠偷”?他们还绘声绘色地描述,MiniMax在他们发布新模型后“24小时内”就把近一半流量转向最新系统。这故事讲的是对手不择手段,还是想炫耀“我们的迭代太快,对手必须实时追踪”?

他们在声明中展示的监控能力,更让人细思极恐。他们说,能通过分析请求元数据,把某些账户追溯到“DeepSeek实验室的特定研究人员”;能根据调用模式,推断出对方尚未公开的产品发布计划。这意味着什么?意味着当你使用Claude的时候,你的问题、你的思维习惯、你的研究方向、你的工作计划,全都在向Anthropic交底。所有人们对私有AI模型最深的恐惧,不管是数据被监控、行为被分析、还是隐私无从保障,在这份声明里,全都得到了印证。

当然,最讽刺的还不止这些。埃隆·马斯克第一时间跳出来开火:你们Anthropic当年不也是靠“侵权”用海量数据训练出来的吗?这话虽然火药味十足,却戳中了整个行业的痛处。回旋镖打到自己,Claude和所有大语言模型一样,是靠扫描互联网上的书籍、论文、新闻、博客长大的,里面有多少是未经授权的版权内容?《纽约时报》在告OpenAI,图库公司Getty Images在告Stable Diffusion,背后大家都在谈同一个问题:大模型时代的“知识抽取”,早就以更大规模发生了,只不过被抽取的对象是整个人类文明的数字遗产。这一点也引发了全球AI圈同仇敌忾的群嘲,真是适得其反。

Anthropic指责对手从Claude身上“偷”能力,却对自己从整个互联网“拿”知识的历史闭口不谈。他们强调蒸馏出来的模型缺乏“安全护栏”会带来风险,却没解释凭什么只有他们有权定义什么是“必要的护栏”。这种双重标准,说到底就是这样的霸权逻辑:规则由最强者制定,强者的行为是惯例,弱者的行为是攻击。

有意思的是,Anthropic本想通过这份声明打击对手,却无意间成了开源AI最有力的广告。他们用自己的行为向所有人证明:在闭源AI服务的架构下,你的隐私、你的自主权、你的知情权,都是无法保障的。当一家公司可以随时以“安全”的名义监控你、评判你、惩罚你,所谓的“信任”就不再是一种美德,而是一种风险。

Anthropic创始人和CEO达里奥·阿莫迪曾经在百度短暂工作过,如今却成了人工智能行业最反华的角色。阿莫迪曾多次呼吁对华实施算力管控,去年9月,Anthropic公司在文件中将中国列为“敌对国家”,断然封禁对中资企业的服务。这也使得清华物理天才姚顺宇愤然离职Anthropic,转投谷歌。

把商业竞争包装成国家安全,这招看似精明,其实危险。它暗示只有特定国家的公司有资格开发强大的AI,其他国家只能用“安全阉割版”。想展示实力,结果暴露了自己。真正需要被拷问的,并不是那些蒸馏技术,而是人们对闭源AI系统越来越深的不信任。


本文系观察者网独家稿件,文章内容纯属作者个人观点,不代表平台观点,未经授权,不得转载,否则将追究法律责任。关注观察者网微信guanchacn,每日阅读趣味文章。