Club提要:近日,政府工作报告首提“打造智能经济新形态”,将持续升温的人工智能热潮推向新高。年初开源智能体框架OpenClaw全球爆火,掀起全民“养虾热”,国内多地纷纷出台扶持政策;上月“Token出海”热议不断,中国AI赶超美国的呼声渐起;与此同时,硅谷企业Anthropic拒绝美国国防部“征兵”要求,再次将人工智能的重大伦理风险与安全边界推入公众视野。
当AI从信息检索迈入意图执行新阶段,智能体成为核心基础设施,一系列问题亟待解答:智能体能否真正实现自主创造价值、逐步替代人类?美国大肆推崇的AI+军事,是真正的安全范式革新,还是换汤不换药的“屠龙术”?已打响知名度的中国AI,该如何突破海外发展壁垒,实现差异化突围?
本文力图剖析全球智能体热潮背后的生产力兑现困境与安全隐患,指出OpenClaw虽推动技术普及,却因设计缺陷、恶意插件等沦为安全隐患,许多企业借AI技术进步名义进行裁员,还加剧了许多国家的就业难题与贫富差距。
文章同时揭开美国“数字军工复合体”的面纱,指出Palantir、SpaceX等企业的估值神话,本质是依托对技术人员和基础设施资源垄断与政府依赖,其AI军事应用未实现战场质的突破,反而因频频出错与不当使用,引发伦理失守与全球反对。科技行业内部,范式变革也正悄然发生:Anthropic与OpenAI关于同军方合作的分歧,折射出不同AI伦理的深层博弈;Transformer架构的发展遭遇瓶颈,也推动着技术范式的全新升级。一系列变化后,或许为全球南方国家带来技术普惠的契机。
针对中国“Token出海”的热议,本文试图厘清“能源套利做算力代工”的伪命题,认为依托自主模型提供API调用服务,才是合规发展的关键。更重要的是,面对美国AI发展的高度军事化、商业化及其引发的全球批评,中国AI应立足人文属性与向善原则,致力于可信形象的打造,以技术助力全球公平发展,构建智能经济时代的多极化生态网络。
一、全球“养虾”热潮:生产力爆发远未兑现,安全风险却已到来
2026年伊始,全球人工智能领域因开源智能体框架OpenClaw(中文简称“龙虾”)爆火再度破圈,凭借病毒式传播成为行业焦点,该框架发布仅10天便在GitHub斩获超21万星标,一举超越传奇操作系统Linux,彻底点燃全民关注的“龙虾热”。
这股热潮在新年后迅速蔓延至国内产业端,短短数日,深圳、无锡、常熟等多地接连出台专项扶持政策,拿出真金白银助力智能体产业落地发展,彰显出各地抢抓AI新赛道的坚定决心。
眼下,全球AI竞争已然迈入新阶段,竞争核心从单一的信息检索(如大家常用的聊天机器人)转向“意图执行”(独立干活)的深水区,这也标志着人工智能完成关键进化,从2024年主打“推理引擎”的技术形态,全面升级为可跨越数字与物理边界、自主编排复杂工作流的行动主体。
OpenClaw能打破硅谷技术圈层壁垒,核心在于架构设计的务实转型,独立于昂贵且集中的云端大模型路线,转而深耕分布式、本地化的工具协同模式。究其本质,OpenClaw并非玄乎的“AI大脑”,而是搭载广泛工具接口的成熟控制平面,这一差异化定位成为其快速破圈的关键。
该框架的核心创新是常驻后台的“网关进程”,可与WhatsApp、Telegram、Slack、企业级Teams等主流即时通讯软件保持持久连接,同时工程师打造的“序列化智能体循环”机制,通过限定单会话单任务执行,规范接口、环境组装、模型推理、工具执行与持久化全流程,有效规避多智能体协作中频发的状态破坏、竞争条件问题,凭借极简稳定的特性收获极高实用可靠性,目前已有用户借助其完成保险谈判、合同审查、多渠道沟通管理等实操工作。加之OpenClaw支持自托管设计,直接冲击硅谷科技巨头的“平台即服务”模式,让全球开发者都能在本地服务器乃至个人电脑或手机上搭建专属“AI助理”,进一步拓宽了应用边界。
虽然OpenClaw作为“爆款产品”推动了智能体技术的全民普及,但Anthropic旗下的Claude Code产品及其研发团队,或许才是这场智能体爆发潮的技术基石——OpenClaw创始人正因为希望更便捷地通过手机操纵Claude Code,进而开发了该平台。
Anthropic公司由OpenAI前高管Dario Amodei等牵头,汇聚了Stripe、谷歌、奈飞等企业的顶尖技术人才,专注研发“宪法AI”与可解释性模型。Claude Code早已超越普通代码助手的定位,实现了从基础代码纠错到专家级系统设计的跨越,无需人工干预即可完成平均21.2次连续工具调用,调用频次较半年前翻倍,展现出极强的实操能力。
随着智能体从实验性技术升级为核心基础设施,其附带的安全威胁呈指数级激增,被全球安全研究人员直指为“安全噩梦”。
OpenClaw这类智能体恰好集齐“致命三要素”:可访问私人数据、能接触不可信内容、具备对外通讯能力。一旦智能体获取用户密码管理器、企业Slack等权限,任何能向其发送消息的主体,都能继承智能体全部权限,这类“间接提示词注入”攻击具备跨时潜伏特性,恶意指令可潜伏数周,待智能体状态匹配攻击目标后触发,进而引发数据泄露、资金转移等严重后果。
事实上,OpenClaw绝非适配全民的成熟产品,普通大众与绝大多数企业与政府单位应理性观望,静待治理体系更完善的消费级产品面世。当前版本的OpenClaw默认处于“不安全”状态,缺失传统科技和金融巨头研发的安全框架,与此同时,企业面临的“影子AI”风险也不容忽视,员工未经审核私自使用OpenClaw处理文档摘要、密码管理等工作,极有可能在30分钟内导致企业基础设施全面沦陷。
从地缘政治与经济格局来看,人工智能已然成为国家核心竞争力的关键载体,中美之外无力自研大模型的国家,会进一步资源聚焦于智能体和基础设施等应用层面布局。法国提议设立100亿欧元“法国与AI”基金,旨在摆脱对美国托管基础设施的依赖,筑牢“计算主权”;西班牙成立AI监督局(AESIA),投入15亿欧元布局司法自动化、贪腐检测算法,试图抢占全球AI治理道德高地;金砖国家则重点聚焦“信息心理安全”,警惕智能体被用于操纵舆论、制造社会动荡。技术焦虑下,全球AI治理博弈也日趋激烈。
技术迭代速度远超治理完善速度成为行业常态,智能体革命虽许下丰厚的生产力红利,却尚未真正落地兑现,反而加剧了全社会的AI焦虑。巴西瓦加斯基金会(FGV)研究明确指出,对发展中国家而言,智能体自动化虽催生“影子GDP”增长,越来越多入门级岗位被AI替代,会推高年轻人失业率,进一步拉大社会收入差距,加剧贫富分化。
基于当下的产业和地缘现状,除科技媒体与头部企业外,普通个人及中小微企业很难从当前的“龙虾”热潮中切实获益,反而要直面严峻的安全隐患与治理焦虑,大概率会受到全球监管收紧的连带限制。这场全球热议的“养虾”狂欢,反而折射出科技前沿圈层与普通大众之间难以逾越的认知鸿沟:科研人员仍在探索AI能力的边界,普通大众却深陷失业恐慌,尚未厘清智能体的核心逻辑,便被舆论裹挟盲目跟风入局。
归根结底,人工智能始终是人类社会的映射,它只能反映现存问题、赋能工具升级,无法自主解决所有社会难题。世界不必急于求成,理应静待一个成熟可控、治理完善的智能未来到来。
▲ 截至2026年3月中旬,开源智能体OpenClaw因存在提示词注入、权限脆弱及敏感数据泄露等严重安全风险,在国内遭遇从国家部委到基层的密集限制:工信部、国家互联网应急中心等国家级机构接连发布预警并提出六要六不要安全建议,明确禁止内网违规使用;金融行业及大型国企基于合规与风控要求,纷纷禁止在办公终端及生产网部署该软件;珠海科技学院等多所高校则采取了强制卸载、严禁校内运行的硬性措施,而北京大学、山东大学等校则要求通过沙箱隔离、关闭公网端口及加强身份认证等手段进行规范化使用,整体呈现出严控、隔离与清理的高强度监管态势。图源:环球时报
二、估值虚高、伦理失守:美国科技军工神话难掩衰退事实
当下全球地缘经济格局中,权力核心正从传统工业规模转向算法主导,美国新一代“数字军工复合体”顺势崛起,该体系以Palantir、SpaceX、OpenAI等企业为核心驱动,将硅谷敏捷的软件文化与五角大楼战略需求深度绑定,妄图在AI时代搭建起跨越国界的权力网络。
褪去这些企业的“科技”光环,或许其本质还是“美国特色的资源垄断”:Palantir并非“先进”的数据和算法驱动企业,本质是高度依赖政府订单和人力外包的软件集成服务商;SpaceX的估值神话,依托的是近地轨道的垄断地位,而非亮眼的商业营收与利润。美国乃舆论中对“AI+军事”叙事的狂热吹捧,很大程度上是为了遮掩本国物质生产能力萎缩、财政赤字高企的窘境。
外界对Palantir存在显著误读,常将其等同于谷歌、Meta这类靠挖掘售卖信息牟利的研发型企业,实则其业务模式是披着软件外衣的高端外包咨询。正如其联合创始人Alex Karp所言,Palantir不掌控数据,核心价值是为数据孤岛化、运转僵化的官僚机构搭建“数字管道”。
该公司最核心的资产甚至都不是算法,而是“前线部署工程师”(FDE)这一人力储备,这群被称作“Deltas”的工程师直接嵌入客户运营场景,无论是乌克兰战区指挥部,还是空客生产车间,都有他们的身影,核心任务是手动编写定制代码,破解AI模型等软件工具落地现实场景的“最后一公里”难题。数据显示,Palantir发展历程中,前线工程师数量一度远超核心软件工程师,足以印证其业务对精英劳动力干预复杂系统能力的高度依赖。这种模式运营成本高且复制难度大,难以实现传统SaaS模式的标准化规模化扩张。
相较之下,Palantir更深远的经济影响,在于其“创始人工厂”的定位。离职员工组建起庞大的“Palantir帮”创业网络,催生了Anduril、ElevenLabs、Epirus等估值数十亿乃至百亿美元的防务科技企业。这群创业者同样也近乎偏执地追求“人才密度”,内部盛行西方中心主义意识形态,并将其作为招揽顶尖工程人才、构筑人才护城河的政治筹码。Karp甚至公开喊话做空者,称公司依托哲学与法律构建“持久现金流”,而非追逐短期市场波动。
如果说Palantir做到了人才垄断,SpaceX打造的则是“物流霸权”。截至2026年,SpaceX估值飙升至1.5万亿美元,这一数值并非商业航天盈利能力的体现,反而折射出其作为美国国家安全战略资产,让美方形成的“逆向依赖”。外界常将SpaceX奉为火箭发射市场化成功典范,但剖析其财务模型可知,公司早已凭借Starlink(星链)卫星网络从资本密集型项目转型为现金流生意。2025年,星链营收约106亿美元,占公司总营收的67%,其传统发射业务虽占据全球82%的商业发射市场份额,却只是星链星座建设的配套业务,显著以来官方订单托底。
马斯克今年宣布将SpaceX与xAI合并,并筹备史上最大规模IPO(拟融资500亿美元),对外宣称是通过“算法大脑”与“物理物流”融合,对冲星际飞船商业化的巨大风险。然而,从技术层面来看,xAI其实仍处于追赶态势,且人才密度和规模显著低于竞争对手。即便坐拥X平台海量实时数据库,其Grok模型在复杂逻辑推理、长文档摘要、软件工程能力上,依旧落后于Anthropic的Claude 3.7、OpenAI的GPT-4.5。技术差距意味着,xAI的价值更多是在地缘政治中抢占“美国算法主权”站位,而能通过市场化造血的可持续项目。
美国决策层对“AI+军事”叙事的执着,逐步显现出某种“军国主义”特征。早在2017年启动的“Project Maven”项目,早已成为美国AI驱动战争的核心抓手,此后美国这些“新军工巨头”通过政府订单等汲取了大量社会资源,却极少投入到可复用的社会建设,如果对外军事冒险连续失败,最终终将无法收回成本草草收场。
这一叙事大行其道,本质是营造技术领先的假象,掩盖实体产业持续萎缩的事实。2025年,美国陆军部长Daniel Driscoll曾公开警示,相比所谓技术,美国更缺乏支撑持久战争的工业产能与弹药储备。然而同年的《国防授权法案》划拨近9000亿美元军费,重点投向AI、5G、高超音速武器等新技术领域,似乎要豪赌所谓科技进步能掩盖其供应链的根本缺失。与此同时,政府还在持续削减教育、医疗、气候相关支出,进一步削弱其国内经济的底子。
即便在科技圈子内部,当前的“数字军工复合体”模式也引发了前所未有的权力与伦理冲突。2026年初,五角大楼与Anthropic的对峙便是典型案例:美国国防部要求Anthropic移除Claude模型安全护栏,用于自主攻击与国内监控,公司创始人Dario Amodei以坚守“红线”为由拒绝,随即被特朗普政府贴上“供应链风险”标签,逐出联邦市场。目前Anthropic已对联邦政府发起诉讼,其结果或将决定未来美国AI+军事的伦理与法律边界。
从目前结果来看,美军高层虽极力宣扬AI带来的军事优势与作战效率,但该技术在实战中并未带来质的飞跃。调查显示,AI辅助打击多次造成学生等平民伤亡,系统在复杂环境下的识别准确率也饱受诟病。美国内外反而充斥着大量担忧,一味追求打击“速度与规模”,会催生指挥官的“自动化偏见”,让人类监督沦为形式化的“橡皮图章”,既弱化责任追溯机制,又大幅提升违反国际人道主义法的风险。
近期伊朗米纳布学校遭空袭更是AI介入战争的典型案例。在各方的舆论战中,AI生成虚假图像与真实战乱惨剧交织,公众深陷真相难辨的“迷雾”中,凸显AI战争伦理缺失的严重后果。美以方面用AI伪造军用设施进驻校园的图片,为打击行动铺垫合法性;社交媒体算法与Grok等AI工具核查信息时频频出现虚假表述,种种行为彻底消解了证据权威性。美国在此事中扮演了负面角色,美军不仅大概率因误炸造成大量平民伤亡,其科技企业提供的AI工具,更沦为抹除事实、煽动否认主义的帮凶。技术滥用让真实平民伤亡被质疑造假,虚假图像又被用来渲染苦难,最终导致证据体系崩塌,伦理底线失守,战争责任追究近乎无从谈起。
拉美研究者在Le Monde Diplomatique刊文警示,这种“数字军工复合体”正在模糊公私边界,推动国家安全决策中心向黑箱化的私人企业转移。在拉美、东南亚地区,这种技术依赖被视作战略软肋,一旦星链等平台在危机时刻切断服务,主权国家将陷入全面通信瘫痪。
如今,这类军工科技企业及其创始人影响力已经深度嵌入美国体制,其未来走向也将与美国国运兴衰绑定。从人才到硬件,Palantir、SpaceX已是美国关键基础设施,这种“逆向依赖”让华盛顿无论政坛如何更迭,都难以将其剥离。即便2026年中期选举与特朗普政府政策带来短期波动,支持《国防授权法案》的跨党派共识依旧稳固,核心逻辑始终围绕对华战略竞争展开。
但这套体系也面临严峻的结构性挑战,首当其冲的便是财政赤字压力。美国国会预算办公室数据显示,2026财年美国财政赤字预计达1.9万亿美元,占GDP比重5.8%,到2036年公共债务占GDP比重将升至120%。若AI无法如预期般提升全要素生产率、缓解债务压力,巨额军事科技投入终将难以为继。
此外,AI在乌克兰、加沙等战区的广泛应用,引发的算法误击、责任归属问题,正激起全球范围内的反对声浪,联合国限制自主武器系统的呼声愈发高涨。若美国执意坚守AI伦理上的单边主义,其科技巨头或将在欧洲等核心海外市场遭遇监管围堵,最终商业版图只能局限于美国国防领域,发展空间大幅收窄。
▲Anthropic与美国国防部的法律纠纷揭示了硅谷科技巨头在军事合作态度上的剧烈转变,从过去谷歌员工抵制军事项目转向如今积极争夺国防合同,反映出在特朗普政府政策、商业利润及国际竞争压力下,科技行业已普遍接受AI军事化。尽管Anthropic坚持拒绝将其模型用于大规模监控或全自动杀伤性武器,并为此起诉五角大楼以捍卫其安全底线,但事实显示该公司及OpenAI、谷歌等同行均已深度参与军事系统集成,当下的核心分歧并不再是是否支持战争,而是在何种伦理框架下为军方提供技术支持。图源:AP
三、范式变革在即:从巨头分歧到技术革新
2026年2月26日,Anthropic公司发布措辞严厉的声明,公开拒绝美国战争部提出的“允许AI系统在任何合法军事场景下使用”的合同修正案。
作为估值数百亿美元、由前OpenAI核心成员创办的前沿AI实验室,Anthropic毅然放弃2亿美元的政府合同增量,这一抉择在硅谷盛行的实用主义氛围中显得尤为特立独行。其CEO Dario Amodei在内部备忘录中明确表态,公司无法跨越良知底线,坚决拒绝参与大规模国内监控,以及将人类完全排除在决策链之外的全自动武器系统研发部署。
Amodei的职业经历,是解读这场AI伦理抗争的关键切入点。这位生物物理学出身的科学家,曾是OpenAI早期Scaling Laws(缩放定律)的核心推动者,他在2024年发表的长篇散文《慈悲机器》(Machines of Loving Grace)与2026年推出的续篇《技术的青春期》(The Adolescence of Technology)中,都流露出对AI发展的深切忧虑:算力呈线性增长的同时,AI潜藏的危险性正以指数级攀升。
Amodei始终认为,AI安全绝非模型训练完成后的后置补丁,而是要依托“人工智能宪法”(Constitutional AI)等工程技术手段,将人类价值观硬编码至模型底层逻辑。2021年,他毅然辞去OpenAI高管职位,带领大批安全研究员离职,核心原因便是察觉到商业利益正在不断侵蚀AI安全底线。此次拒绝战争部合同,不仅出于道义坚守,更基于严谨的工程逻辑:他直言,当前边缘大模型在极端军事环境下的可靠性,根本无法支撑自主开火权限,强行部署无异于漠视前线士兵与平民的生命安全,是极不负责任的行为。
与之形成鲜明对比的是,Sam Altman执掌的OpenAI迅速填补市场空缺,与五角大楼正式签署合作协议。以Altman为代表的科技巨头掌门人,选择了截然不同的“制度主义”发展路径。Altman在2025年的反思录《温柔的奇点》(The Gentle Singularity)中预测,AI将于2026年具备超人类推理能力,2027年实现物理世界大规模机器人化落地。他的AI治理理念偏向外部约束,主张搭建类似国际原子能机构(IAEA)的全球监管组织,而非在企业内部建立独立的权力制衡体系。
Amodei对此展开尖锐批判,直指Altman虚伪善变,认为OpenAI划定的所谓伦理红线,仅依附于极易修改的部门政策,实质上彻底放弃了对AI军事用途的伦理约束。两人的激烈冲突,折射出AI发展愿景的根本性分歧:Altman治下的OpenAI,早已偏离以人类福祉为先的创立初衷,转而追逐商业利润与行业话语权的扩张;而Amodei始终坚守创办Anthropic的核心信念,试图以严守伦理底线抵御技术异化带来的风险。
在头部公司背后,还有关于未来技术路线发展的更深层分歧。
当下的AI地缘政治格局,依托Transformer架构搭建而成,这一主流技术范式正遭遇严峻的物理与经济双重瓶颈。从工程层面来看,Transformer架构具备O(N^2)的平方级计算复杂度,意味着随着处理序列长度增加,对内存与带宽的需求会呈爆炸式增长,工业界已然深陷“内存墙”困境。在传统冯·诺依曼计算机架构中,处理器与存储器间的数据搬运,耗费了系统90%的总能效与70%的延迟,这种对算力的极致渴求,也加剧了全球算力资源分配的极度不均。
为突破“内存墙”桎梏,全球AI产业必须朝着更高能效的全新技术范式转型。在硬件领域,高带宽内存的落地、“近存计算”(PIM)技术的商业化推进,致力于将AI处理单元直接嵌入内存芯片,优化数据处理效率。而真正具备颠覆性的变革,可能在于算法架构的革新普及,2026年,以Mamba-3为代表的状态空间模型(SSM)实现线性复杂度推理,在信息密集型任务中首次全面超越同规模Transformer模型。Mamba模型的核心工程优势,在于只需维护恒定演化的内部状态,无需存储庞大的注意力矩阵,这让原本依赖高端GPU集群运行的大模型,如今可在低成本边缘设备或主权数据中心顺利部署。
全新的技术范式,可为“全球南方”国家带来了实现技术普惠的战略契机,也会重塑数字主权的内涵。巴西与印度正依托数字公共基础设施,重新定义AI的普惠价值。巴西区域信息和通信技术研究中心(Cetic.br)2024-2025年监测数据显示,该国手机拥有率达87%、移动互联网接入率实现100%,为高能效小模型的落地部署筑牢了基础。印度Aadhaar身份系统、巴西PIX支付网络正与AI智能体深度融合,借助语音支付、跨语言医疗助手等应用,持续缩小贫富发展差距。
欧洲在主权AI布局上的举措同样极具参考意义。2026年1月31日,法国政府颁布法令,要求250万公务员在2027年前全面停用Zoom与Microsoft Teams,转而使用国产加密平台Visio。与此同时,法德轴心2025年底承诺投入120亿欧元布局关键技术,依托主权云与西班牙ALIA、瑞士Apertus等多语种大模型,逐步降低对美国技术栈的路径依赖。
当下,AI安全风险持续扩大、各国监管力度不断加码,科技企业与核心技术人员的风险意识全面觉醒,叠加2025-2026年大量AI公司迎来上市潮的行业转型关键期,更加凸显AI伦理作为底层运行规则的重要意义。
对于各方而言,当发展面临瓶颈乃至争议时,技术伦理并不是工程创新的阻碍,而是保障AI技术稳健前行、规范发展的核心路线图。从Amodei拒绝战争部坚守伦理红线,到Mamba架构打破算力霸权实现去中心化,再到全球南方国家依托数字公共基础设施实现跨代赶超,诸多线索共同印证一个核心结论:人工智能的未来,不该是少数巨头掌控的单一奇点,而是多极化、可审计、尊重本土文化价值的多元生态网络。
▲ 越来越多研究指出,“世界模型”(World Models)在人工智能领域正在从历史构想中持续演变,并有望成为通向通用人工智能(AGI)的关键路径。当前的基于Transformer架构的生成式AI(如大语言模型LLM)虽然在语言处理上表现优异,但普遍缺乏对物理世界时空一致性的深层理解,导致在视频生成或复杂规划中常出现逻辑断裂。世界模型旨在为AI构建一个内部的“计算水晶球”,即对环境动力学、因果关系和物理规律的抽象表示,使其能像人类大脑一样在行动前进行内部模拟与“想象”,从而解决现有模型无法预测长远后果或理解常识性物理限制的缺陷。
事实层面,这一理念最早可追溯至1943年心理学家Kenneth Craik的“心智模型”假说,虽在20世纪80年代因难以模拟现实复杂度而一度被边缘化,但如今随着算力和多模态数据的爆发重新成为焦点。目前,包括Meta的Yann LeCun、Google DeepMind和OpenAI在内的顶尖团队正通过不同的技术路线——如非生成式的JEPA架构或基于大量视频数据的预测训练——尝试让AI自发形成4D(3D空间+时间)的直觉映射。这种能力的突破将直接推动机器人技术、自动驾驶及增强现实的革命,使机器从单纯的模式匹配者进化为具备物理常识和前瞻性规划能力的智能体。图源:Quanta Magazine
四、Token出海:如何让“伪命题”变成“真优势”
近期,国内外“中国依托电力优势售卖Token”的言论引发全网热议,相关叙事极具煽动性:AI时代算力的核心依托是电力,中国正将0.8元/度的工业电,通过大模型推理转化为Token销往海外,实现产值13倍暴涨。
从物理链路来看,人工智能生成的每一个Token,本质确实是电力向信息的转化,未来Token经济学与能源政策息息相关。国际能源署(IEA)数据显示,2030年能源将成为全球人工智能发展的首要制约瓶颈,而中国在光伏、风电、储能、输配电乃至数据中心等全产业链的全球主导地位,使其能以更快速度、更低成本弥补AI发展的能源缺口。
但所谓“中国将电力优势转化为Token销往全球”,本质上是过度简化的伪命题,核心误区在于将AI算力等同于传统制造业代工。尽管中国在局部电力成本、基建并网效率、通信网络、计算硬件等方面具备显著优势,但大模型并非可随意流转的“数字集装箱”。
物理层面,海内外顶尖闭源模型的核心权重文件,是价值百亿乃至上千亿美金的核心数字资产,硅谷巨头绝不会为节约电费,将其部署在无法完全掌控的境外机房,否则将面临核心知识产权完全暴露的风险;若采用跨洋流水线协作模式,光速引发的网络延迟会导致AI响应速度大幅滞后,彻底破坏商业使用体验。
法律合规层面,这类代工模式更不具备可行性。AI推理需要将数据在显存中明文运行,涉及全球用户隐私、企业商业机密的Prompt提示词都会暴露,在外部运行也存在极大安全隐患。依据欧美严苛的GDPR等数据保护法规,将用户数据高频传输至未获合规认定的区域处理,极易触发巨额罚单;同时国内对海量数据跨境流动的监管审核极为严格,所谓“美国接单、中国算力代工”的IaaS(基础设施即服务)模式,在数据确权、隐私保护、国家安全多重红线约束下,根本无法落地实施,只是不切实际的商业幻想。
除数据与算法本地化带来的网络空间割裂外,AI还带来通信架构在技术路径与生态主导权的深度分裂。当前行业已达成共识,AI引发流量“潮汐倒灌”,传统下行主导网络(如读文章看视频等)正向“大上行”架构转型,以适配智能体实时采集、云端推理的爆发式需求。而在“AI原生网络”布局上,全球产业已分化为三大阵营:英伟达依托GPU算力优势组建AI-RAN联盟,试图以通用硬件颠覆传统通信基站;高通等传统芯片厂商坚守3GPP标准,主张基于现有通信SoC实现端网云协同改良;华为、中兴等企业则坚持“通信内生AI”的自主路线,聚焦异构计算与自主可控发展。
这种分化不只是技术路线之争,更是未来十年全球通信产业价值分配权的核心博弈。2026年3月全球6G标准化工作正式启动,三大阵营在专利布局、架构定义层面的博弈进入白热化。各国运营商作为关键参与者,既希望借助AI驱动的“体验变现”突破增长瓶颈,又警惕在架构变革中沦为硬件巨头的底层管道。技术共识与生态分歧并存的现状,意味着全球通信网络重构又将迎来一场涵盖算力、通信、行业话语权的跨界角逐。
因此,真正能实现“电力换Token”并合规创收外汇的模式,绝非简单的算力代工,而是中国本土AI企业的MaaS(模型即服务)模式。该模式要求中国企业掌握自主可控的核心模型,如DeepSeek、通义千问等,将模型部署于国内低成本算力枢纽,此时中国厂商输出的不再是服务器带宽或廉价电力,而是标准化API接口。手握模型所有权,可彻底解决物理延迟、资产安全问题,海外开发者也会因中国API的高性价比主动接入,在合规框架内完成数据交互。随着AI智能体再次成为全球热点,已推动海外对Kimi、阶跃星辰等国内大模型API调用量的飞速增长。
以工程创新促研发提效,正是过去两年中国AI实现突破的核心工程基础。2025年以来,DeepSeek-R1、阿里巴巴通义千问3等模型的面世,印证了中国在推理效率上的突出实力。DeepSeek依托混合专家架构(MoE),仅激活部分参数即可实现高质量推理,计算成本较西方主流模型降低约40%。在STEM、法律、医疗等可以大量后训练优化的专业领域,这种高效低成本的推理模式,成为资源受限场景的优选方案。例如,阿里巴巴Qwen模型家族海外渗透率亮眼,在俄罗斯流量占比近30%,巴西用户份额超19%。通过开放开源权重,中国AI实验室赋予海外研究者自主检查、微调、部署模型的权限,对担忧数字殖民的国家极具吸引力。
随着模型不断升级,标志着中国从出口廉价工业品转向出口高附加值数字化资产。每一个销往海外的Token,更凝聚着中国新能源电力、特高压输电网络、本土算法调度的综合实力。这显然超越了肤浅的“能源套利”炒作,而是依托自主技术底座实现的数字化价值升级。
▲当前全球正处于从西方主导的单极秩序向多极化转型的关键时期,AI伦理已成为构建“道德多边主义”的核心议题。Jeffrey Sachs等指出,过去几个世纪由欧美主导的政治经济模式正面临挑战,世界迫切需要一种基于“共同利益”而非“霸权利益”的全球治理架构。其中,AI伦理不仅仅是技术规范,更是关乎人类生存与正义的基石;当前亟需纠正西方大国和企业对技术的垄断及掠夺性行为,通过多元文化与信仰的对话,确立一套能够平衡主权、正义与可持续发展的全球性技术准则,以确保AI的发展成果由全人类共享。在这一进程中,中国正凭借其日益增强的技术实力和独特的治理理念扮演关键角色,挑战美国长期以来的AI霸权。与美国模型往往承载西方价值观不同,中国AI模型(如DeepSeek等)通过开源和高效的技术创新,不仅打破了美国对顶尖AI市场的垄断,也为全球提供了另一种“技术中立”的选择。图源:The Pontifical Academy of Social Sciences
***
但技术仅是发展的必要条件,而非充分条件。想要突破地缘政治局限,中国AI可以注重人文属性,以构建全球互信。战略重心应聚焦解决人类基本生存问题,而非单纯追求商业变现与军事应用。
国内广阔的应用场景,为人文AI发展提供了优质试验田。例如,面对医疗资源分散等现实挑战,阿福、腾讯觅影等平台整通过AI工具挽救生命、提升诊断精度、降低医保开支,远高于直接经济收益;如果向国际开放AI+远程诊疗服务,还能更加精准、高效地应对当下来华医疗旅游的旺盛需求,真正造福全球人民。将AI定位为社会公平的助推器,中国正以此搭建情感与信任的纽带。
全球治理层面,中国坚守“人工智能应造福人类”(AI for Good)原则,这套伦理体系区别于西方商业主导逻辑,更侧重和谐友好、公平正义、包容共享,将塑造全新的价值话语体系。2026年金砖国家峰会以人类优先、全球南方领导力为核心议题,致力于缩小全球AI发展鸿沟。在拉美,中国已成为该地区AI发展不可或缺的合作伙伴,华为、中兴搭建的5G基础设施,更是智利、巴西等国发展主权AI的核心支撑。
随着单极自由主义国际秩序的结构性收缩,巴西、加拿大、海湾国家、东南亚等中间力量,正获得前所未有的结构性话语权,技术正是这场全球格局转型的核心驱动力。中国依托人文AI战略,摒弃霸权思维,以文明交流互鉴为核心动力,可重塑当前全球经济体系,并构建以共同利益为核心的新型国际秩序。