点击蓝字
关注我们

海外智库观察
在地缘政治危机加剧的当前,人工智能与核风险的交汇点正变得日益敏感。人工智能是一把“双刃剑”,它能提升早期预警质量,但从决策自动化、情报失真到信号误读等潜在问题,都可能在核危机中引发“蝴蝶效应”。在大国裂解、人工智能技术军民同时快速渗透、传统军控架构脆弱的背景下,务实、透明并具“人工保护机制”的多边制度成为关键。否则,人类极可能在不经意中走向自我引发的核风险边缘。
英国皇家国际事务研究所6月9日发布文章强调,人工智能可以通过模式识别减少误报、延长预警时间提供决策缓冲。然而,规则型人工智能机制固定、神经网络黑箱且容易受到对抗性输入干扰,两者外推都可能误触核反应。斯德哥尔摩国际和平研究所6月刊文章指出,人工智能会压缩决策链,可能引发“先发制人”风险,尤其当人工智能完全控制导弹防御或反击系统时。此外,如果人工智能干预强化进攻(counterforce),可能会引起对手误判而提前核回应等问题,破坏战略平衡。对此,两篇文章都给出了可行的制度完善方案。全球核安全需要我们共同努力。
英国皇家国际事务研究所
Chatham House
人工智能如果与核武器结合,会发生什么?
文章指出,将人工智能整合进入核武器早期预警系统和情报侦察分析,理论上可以延长决策时间,从而降低核冲突意外升级的风险。但这一切建立在我们能够更好地理解其中风险的基础之上。本文作者 Marion Messmer(国际安全项目高级研究员)认为,主流大语言模型(如 ChatGPT)的普及加剧了人们对人工智能在高风险决策场景中作用的担忧,尤其是在涉及核武之类灾难性事件时,人工智能验证和理解的不完全性可能带来极大隐患。
目前的两类主流人工智能用于决策的模型在使用时各有利弊。一是规则型系统,具有逻辑清晰、决策可复现、一致性高等特征,但在应对异常或者复杂情形时可能不够灵活。二是神经网络模型,优点是灵敏且适应性强,能在复杂环境中运作并处理复杂数据,而缺点则是决策机制和结果不够透明,缺乏一致性且容易出现误导性错误。作者指出,人工智能的参与必须建立在对其局限与风险有清晰理解的基础上。错误集成或过度依赖人工智能,可能导致比没有人工智能更危险的情景。
文章总结道,人工智能的优势是可协助识别虚假预警,通过模式分析帮助筛除误报信号。同时,可以延长预警判断时间,给决策者更多的思考与验证空间,减缓决策节奏,降低冲动误判的风险。然而,如果人们对于人工智能的可靠性过度信任,可能会忽略系统缺陷或输入异常,导致误判。此外,黑箱机制与不透明决策逻辑为决策增加了难度度,目前的规则系统无法覆盖极端或者非常规情况,可能导致系统失灵。同时,神经网络易受“误导性输入”影响和攻击,故意篡改输入数据或者制造假信号可能导致偏差或系统失效。
最后,作者提出了针对潜在问题的解决方案,用以帮助建立全面的风险认知和控制机制。在未来的科研、政策制定与技术部署中,我们应明确人工智能在核决策系统中的职责分工和使用边界,开发更透明、可解释、经过严格验证的算发,并保证在每个环节始终有人做最终“人类决策”,维持“人在回路”(human-in-the-loop)控制机制。不论何种情况,人工智能都不应该完全替代人类决策者。
斯德哥尔摩国际和平研究所
French Institute of International Relations
军事领域人工智能武器对于核战争风险升级的影响
文章指出,尽管当前人工智能并未被直接整合到核武器系统中,但其在常规军事系统中的运用,仍可能通过压缩决策时间、扭曲判断倾向和削弱战略稳定性,影响核结构的决策环境,进而对核升级机制构成潜在威胁。接下来,报告探讨 AI 是否引入新风险、加剧既存风险或彻底改变核升级方式。
首先,文章说明了核升级风险的概念,即冲突从常规走向核级别,且当某方或多方感知到临界威胁门槛被触及时,则可能触发核武使用。核升级风险通常分为三种模式:第一是有意升级,即故意采取核威慑。第二是无意升级,即未预期会导致核冲突。第三是误判升级,指因误解或错误操作导致核爆发。报告强调,人工智能通过压缩决策链和自动响应,在以下几种非核领域情景中的应用,都可能间接提高核升级风险,带来不稳定影响。首先是在决策支持系统(DSS)中,人工智能的作用是整合大量监控、侦查、开源与数据库情报,为战略、行动和战术层级决策提供支持。然而,人工智能会造成时间压缩和认知偏差两个潜在问题。首先,人工智能会加快情报分析与建议速率,这可能迫使决策者在更短时间内作出选择。同时,不透明且可不解释的借口与交互方式(用词、界面等)机制可能会增强错误采用人工智能建议的可能性。第二,若人工智能可以实现自动控制用于侦察、目标定位、导弹拦截并能够操控具备“反击”潜力的系统(如精确打击或导弹防御),则可能破坏核国对于“第二次打击”能力的信息,破坏战略平衡,促使各方提前动手以防不测,则最终或将导致冒险升级冲突。目前,这些机制或功能虽未直接进入核系统,却可能会间接影响核态势和决策心理。
报告强调,该问题的复杂性是前所未有的,因为人工智能可以被整合于多个军事层面,尤其是在决策核反击系统中。因此,需要把人工智能技术影响与其他因素一同考量:地区地缘冲突态势,军事常态与常规-核武交织(nuclear–conventional entanglement),以及决策链中的人控与自动之间的实际机制。这些因素共同决定了人工智能如何在危机情境中被组织使用,并影响何种路径引发升级。最后,报告指出,为应对人工智能带来的核风险,应从以下几个维度思考解决问题的方案。第一,识别并分类 AI 类型,通过区分决策支持和自主武器,对各自风险分级。第二,强化透明与交互理解,通过鼓励各国公开 AI 军事发展意图,避免情报误读。第三,开发专门治理框架,在“人类参与”(human‑in‑the‑loop)之外,还需设立具体红线与操作规则。第四,融合现有核限制机制,各国应将人工智能风险纳入核风险对话机制、条约或新多边协定。第五,持续监测与实践评估,可以借助模拟演练、跨国协作深挖人工智能在战术与战略环境中的作用路径。
原文链接:
1.https://www.chathamhouse.org/publications/the-world-today/2025-06/what-happens-if-ai-goes-nuclear
2.https://www.sipri.org/sites/default/files/2025-06/2025_6_ai_and_nuclear_risk.pdf
审核:赵杨博
排版:李森(北京工商大学)
终审:梁正、鲁俊群
往期回顾
清华大学人工智能国际治理研究院(Institute for AI International Governance, Tsinghua University,THU I-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参与人工智能国际治理提供智力支撑。
新浪微博:@清华大学人工智能国际治理研究院
微信视频号:THU-AIIG
Bilibili:清华大学AIIG
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢