【文/窦国庆】
战端一开,速战速决往往被视为最佳策略。AI科技显著增强了军队的反应能力。美军希望运用AI科技,对环境变化做出更加敏感、迅速的反应,力争在比对手快一拍的节奏中实现“一击制胜”。
美军的战争法则是:“依托美国及其盟友的军用、商用和民用物资配置与物流体系,持续制造让对手感到随时可能遭受打击的心理压力。”AI科技强化了这一法则。AI武器系统(如无人机、无人战车、无人舰艇等)在获得战争决策者授权后,可直接将数据转化为内部指令,省去逐级传递、层层处理的冗长流程,在极短时间内做出反应。
全球AI精确战由此走向前台,其特征是自动化信息共享与自主协同,实现高速、精确作战:无需全球范围的物理存在,也可实现全球部署;无需全球范围的实体运用,也可实施全球打击;即便不依赖现有基地、信息系统或空天系统,也能在尽可能多的地点、针对尽可能多的敌对目标,发起主动、精确而突然的打击。
美军试图使所有对手相信,任何防御与规避都将是徒劳的。其核心做法是“在巨大的地理空间和不透明的信息环境中持续收集数据,以追求低风险、低代价的一击制胜”。
围绕距离遥远、地形复杂、交通线漫长的全球各类危机区域,无论是人口与现代化设施高度集中的城市,还是地广人稀的乡村地区,只要难以有效降低暴露风险或必然存在感知盲区,追求一击制胜便成为一种看似必然的战略选择。
然而,一击制胜表面上似乎无须跨洋机动与长期部署,时间短、人员消耗少,但其前提是必须始终维持全球态势感知能力。这种做法容易加剧对手的敌意,并引发类似核威慑悖论的连锁反应:当所有大国都追求对他方的毁灭能力时,真正的毁灭反而难以实现。当美军迫使对手同样追求一击制胜时,一击制胜本身也将不复存在。
美军全球作战体系的核心攻防手段是远程打击武器,其效能高度依赖将武器精确引导至目标的“太空—网络”一体化信息系统。
特朗普对AI产业实行最小限度监管,将使AI科技的基础设施,尤其是网络与太空设备、地表数据中心等的位置完全公开,它们的数量也会增多。特朗普希望全力利用美国创新的力量,却增加了未来暴露的风险。
如果以星链系统为骨干的信息体系失灵或瘫痪,美军作战行动极可能遭受重大挫折。信息系统贯穿陆、海、空、天等物理空间领域,这就使战场空间既可能是全球性的、远程的或近程的,也可能呈现一维或多维形态;战争时间既可能长期持续,也可能高度短促。战争的胜利或许属于能够实现一击制胜的一方,也可能属于能够经久不败的一方。短期决胜的重要性日益上升,但这并不能彻底颠覆持久制胜的基本法则。最终,战争胜负仍取决于哪一方在经济与科技层面更能经受消耗与打击。
今年1月,美国防长赫格塞思在SpaceX发表讲话,宣布马斯克开发的人工智能聊天机器人Grok将与谷歌的AI平台一道用于五角大楼网络。
AI精确战将“发现—打击(防御)—评估”的作战行动周期,与“威慑—作战—塑造”的战略行动周期相融合。AI武器系统与“太空—网络”一体化信息系统交互运行,对潜在敌对目标实施跟踪、探测甚至直接打击。这要求美军不仅由更少量却高度职业化的军人和精良武器系统构成,还需吸纳大量科技与商业领域的精英力量随时参与,进而改变传统战争准备的基本原理。
美军坚信,“新的战争模式必然源自新科技的组合”。在实施全球AI精确战过程中,美军将动用当代几乎所有前沿科技成果。AI科技使美军能够通过全球指挥控制网络,将导弹、火炮、特种作战力量等致命性武器系统接入统一体系,并叠加电子战系统、定向能武器等能力,形成随时对全球目标实施打击的态势。
此外,3D打印、新材料、量子通信、物联网等前沿技术,有助于美军节省人力、减少人员伤亡,提升战场生存与适应能力,使其具备更高精度的火力、更强的机动能力和探测能力,从而增强持续作战能力及其对政治目标的支撑能力。
效能超强意味着成本剧增。美军全球AI精确战可谓消耗甚大。需求增加且预算充足,令AI科技企业及其军工利益相关方不断哄抬物价。
2026财年,美军首次为AI作战领域单列134亿美元预算,用于研发或者更新无人机、无人战车、AI导弹等。2027财年,美军各军种要对作战体系进行AI化升级。五角大楼已与超过300家AI科技企业开展合作项目。这导致美军所需AI武器系统的价格始终处于高位,美国陆军常用的无人机价格也在2万到4万美元,远高于国际市场价格。成本高昂加大了预算压力,而金钱很难顺利转化为军力。扎克伯格、马斯克等人不断从斯坦福大学等全球知名大学或者竞争对手那里发现和引进AI科技创新精英,这些精英的年薪动辄以数亿美元计,这也直接推高了AI工具的训练成本。
AI武器系统正在促使美军在人员结构、编制体制、作战理念、基础设施与管理方式等方面发生系统性变革。其高昂成本使美国政府长期承受沉重的财政压力,因而可能——甚至可以说是被迫——更加依赖其超强的经济与科技实力,在传统意义上的宣战之前,力争实现未战而定胜负的战略效果。
这反过来要求美军在贯彻AI精确战理念时,着眼于未来更加“安全”和“便利”地发挥优势,不是被动应战,而是主动“求战”。这种取向在一定程度上强化了单边主义的心理诱因,使美军战略策略与AI科技企业追求利益最大化的内在驱动相互叠加,从而为美国带来几乎难以回避的战略性难题:动武动机与维护战略稳定的道德责任之间的张力,应当如何加以调和。
在美军全球AI精确战框架下,除了决策环节,几乎所有直接或间接的作战行动——情报、监视、侦察、感知、计划、控制、后勤、通信、发射与制导、机动投送以及毁伤评估等——都通过AI武器系统的特性体现出人的主导地位。这些系统不受生理疲惫与心理波动影响,“敢于”在高风险环境中持续运行;能够实时、充分共享作战数据,实现优势互补;甚至在未来,可能在想象力、创造力、谋略以及行为艺术等方面趋近于人的能力。
然而,全球AI精确战不可能处于所谓“无敌模式”。正如埃里克·施密特所指出:“AI科技预示着无限可能,也令志在这一领域有所作为的人很难确定,是否能够保证对它的绝对掌控。”
因此,美军不可能确保数据始终绝对安全与可靠,也不可能使AI武器系统以及人的误判与误操作风险完全消失,更无法保证在所有情境下绝对遵守军事道德与道义。一旦数据出现失真、失准或失时,或许“最不坏”的结果只是人的决策与AI武器系统的自主行动发生失调,“在‘未知’环境中,AI武器系统毫无情感地以‘迫在眉睫’的方式造成破坏”。
在这一背景下,人的决策作用主要体现为两个方面:其一,决定是否开战,以及何时结束战争;其二,决定攻防方式。AI武器系统的自主行动——包括目标打击、机动、侦察、通信、导航、预警等——均不可能完全脱离人的影响。人的决策与AI武器系统自主行动之间的偏差,正如精确制导武器亦存在误差一样,可能导致行动开始或终止过早/过迟,误判目标,或未能有效命中关键目标等后果。