【全球AI战略洞察】栏目由清华大学人工智能国际治理研究院推出,旨在通过对当前人工智能领域发生的重要信息进行“标注、提炼、解读”,剖析全球AI治理各国家间不同的战略图景,以此描绘人工智能治理领域的国际格局。
栏目主理人:刘典
复旦大学中国研究院副研究员、清华大学人工智能国际治理研究院战略与宏观研究项目主任
2024年1月10日,OpenAI悄然更新了使用条款,其中不再明确禁止将其技术用于“军事和战争”,由此引发热议。
此举意味着什么?AI介入军事与战争将产生什么转向?又会产生哪些问题?
图源:新智元
01
OpenAI不再明确禁止将其技术用于“军事和战争”
修改之后的“使用条款”写道:不要使用我们的服务来伤害自己或他人——例如,不要使用我们的服务来促进自杀或自残,不要开发或使用武器。

图为修改之后的“使用条款”
相较于2023年3月23日更新的OpenAI的“使用政策”页面所提到的“具有高人身伤害风险的活动”,其中涵盖了:Weapons development(武器开发)、Military and warfare(军事和战争)。

图为修改之前的“使用条款”
不难发现,虽然修改前后的“使用条款”中均提到了禁止用于“武器开发和使用”(Weapons development),但与之同样被禁止的“军事和战争”(Military and warfare)不复存在于文本中。
新规削弱了原有对于军事和武器应用的明确抵制界限,转而将立场转为一种更为模棱两可的"坚持勿伤人"的观念。
对此该公司发言人尼克・费利克斯(Niko Felix)回复称,“我们的目标是创建一套通用原则,像‘不伤害他人’这样的原则很广泛,很多情况下都具有相关性,此外,我们还特别引用了武器和对他人造成的伤害作为明显的例子。”
换言之,该发言人认为公司重写用户政策的目的是为了创建统一的原则,既容易被记住,也有更广阔的应用场景。例如“不要伤害他人”这样的原则应用语境非常广泛,更具备普适性。
值得注意的是,回应中并未确切回应“禁止伤害他人”这一表述的具体范围,也未曾透露模糊的“伤害”禁令是否涵盖所有军事用途。
面对媒体对OpenAI公司“文字游戏”的诘问,该公司进一步确认条款的调整是为了满足“与公司使命一致的国家安全用例”。并在声明中表示:
我们的政策不允许使用我们的工具来伤害人们、开发武器、进行通信监控,或伤害他人或破坏财产。然而,存在一些与公司使命一致的国家安全用例。例如,我们已经与美国国防部的高级研究计划局(DARPA)合作,促进创建新的网络安全工具,保护那些对关键基础设施和产业至关重要的开源软件。在之前的政策中,这些有益的用例是否被允许使用在“军事”领域并不清楚。因此,我们政策更新的目的是为了提供清晰性,并能够进行这些讨论。
值得注意的是美国国防部联合人工智能中心官网显示,OpenAI的部分研发人员属于美国国防部联合人工智能中心“国防创新委员会”的成员,会定期参加相关研讨会。并且美国国防部支持的微软公司“联合企业国防基建”(JEDI)人工智能项目有意投资OpenAI公司的云计算业务。
如今OpenAI悄然改变“使用条款”的转向,不仅为后续人工智能的破坏性使用提供了更多弹性空间,释放出该公司正试图改变“远离军事”的信号,也会进一步为军事和战争的发动披上合法外衣。而这,势必将潜移默化地影响全球军事体系。
02
看得见的硝烟:当人工智能应用于军事与战争
此前,有传闻称“美军无人机在AI指示下杀死了自己的人类操作员”,后美国空军虽驳斥了该谣言,但也顺势让“人工智能应用于军事”所造成的威胁更为显性。
事实上,对于AI应用于军事的担忧并非杞人忧天。
2021年7月13日,以色列军方将5月与巴勒斯坦哈马斯武装在加沙地带的冲突定义为“第一次人工智能战争”。除此之外,俄乌战争被认为是人类首次最广泛地应用“人工智能”的战例。
据悉,此前美陆军研究实验室正致力于研究如何利用人的大脑活动信号来训练人工智能系统,以自适应地辅助士兵完成任务,从而优化人-机组队性能。如果真正实现将ChatGPT等AI技术应用于军事作战部队,如此一来,会造成更多的生命伤亡。
如今,AI主要应用于军事作战的3方面:情报分析、无人作战系统和军事仿真与训练
情报分析
通过深度学习和机器视觉技术,AI可以快速分析大量图像、视频和声音数据,实时识别和追踪目标,为军队提供准确的情报信息。这将有助于决策者更好地了解敌方动态,并做出相应的战略和战术调整。
例如,美国国防部研究机构“算法战跨部门小组”(AWCFT)已投资研发名为“Maven计划”的人工智能项目,在利用机器学习技术对卫星图像进行实时分析领域发挥了巨大作用,从而为战场指挥官提供有力支持。
自主无人作战系统
自主无人系统、智能导弹和战车等装备将能够自主感知、决策和执行任务,减少对人员的依赖并提高作战效率。AI还可以支持智能指挥系统的发展,实现智能化的指挥与控制,提高指挥决策的速度和准确性。
例如,美国空军MQ-9“捕食者”无人机,已在多次反恐作战中成功打击目标。此外,无人作战系统的应用还有助于降低战争损失,减轻士兵负担,保障军事行动的安全性。
高度逼真的军事仿真与智能训练系统
虚拟现实和增强现实技术结合AI能够创造逼真的战场环境,让士兵进行实战演练,提高他们的战斗素养和应变能力。同时,AI可以分析个体士兵的训练数据,提供个性化的训练计划和反馈,优化训练效果。
03
看不见的硝烟:用人工智能打响“认知战”
目前,OpenAI的相关产品虽未在明面上被用于杀人或造成直接破坏,但其应用所发动的“认知战”已不容忽视。所谓“认知战”(Cognitive Warfare,CogWar)是指利用认知的各个方面来扰乱、破坏、影响或改变人类的决策,代表着各种先进技术与人为因素和系统的融合,如人工智能、机器学习等。
ChatGPT已基本具备类人化的学习能力和逻辑常识,从发帖模式到用户信息都与真实用户高度相似,可模拟人类的复杂思维并使用高质量且带有情感色彩进行互动,从而能通过投放“信息炸弹”混淆公众视听、塑造虚拟意见领袖。
具体而言,随着用户对ChatGPT的依赖程度加深,人工智能操纵技术可以实现更隐性的控制,而其更可怖之处在于,较之真枪实弹的“屠杀”,这一方式能造成更大范围的死亡且其背后主导者不必承担被指摘的伦理道德风险。
本文认为,这种认知战可能导致的伤害如下:
信息扭曲与认知操控:自动化生成虚假信息,编写误导性的文章或评论,操纵社交媒体内容,AI通过大规模的信息搜集和分析,并针对个人需求和偏好,揭示其身份和行为,从而对个人进行针对性的攻击或操纵,或者操控其舆论和意识形态,导致信息过滤泡沫的形成,加剧社会的分裂和对立。
例如,俄乌冲突期间,一个关于乌克兰总统拉基米尔·泽连斯基(Volodymyr Zelensky)宣布投降的“深度伪造”视频就曾在社交平台上被疯传。

图为乌克兰总统弗拉基米尔·泽连斯基被伪造投降视频截图
煽动暴力与AI武器:通过操纵舆论和信息,AI可以被用来煽动暴力行为,激化民族、宗教或政治之间的紧张关系,如鼓励恶意行为或组织暴乱。这可能导致人们受伤甚至丧生。如果AI被应用于军事领域,可能导致人工智能武器的滥用和误用。这可能引发战争、冲突和人员伤亡,对生命安全产生严重威胁。
例如,乌克兰安全局曾关闭一处拥有上百万机器人的“巨魔工厂”,该工厂的目标就是抹黑乌克兰官方发布的信息,破坏乌国社会与政治局势、伺机制造内部冲突。
医疗风险与身心健康:AI可以通过故意传播虚假的医疗信息或误导性的健康建议,比如,推广虚假的药物、食品产品导致误导性的安全评估。此外,通过传播鼓励自残或自杀的信息,或者操纵社交媒体以使用户沉浸在消极、暴力或仇恨的言论中,由此可能导致人们的心理健康状况恶化,甚至诱发自杀行为。
例如,曾有比利时青年科学家与由人工智能管理的聊天程序进行了6个月的密切信息交流后决定自杀。

图为比利时《标准报》科学家自杀事件报道截图
04
隐形的杀戮:硝烟何时消失?
“散布分裂国家的虚假信息”“强化控制信息渠道以抹黑国家形象”等等方式,无不是“认知战”中惯常使用的手段。而一旦将ChatGPT与社交机器人相结合,使其成为认知战的新工具,将导致后者的战争激烈程度难以估量的程度增长。
2023年3月,北约科学和技术组织(Science and Technology Organization,简称STO)发布了《缓解和应对认知战》(Mitigating and Responding to Cognitive Warfare)报告。其中详细介绍了缓解和应对认知战所需关注的关键领域,以更好地防御当前和未来的认知战。

图为北约发布报告封面
有鉴于此,中国陆续出台了相关政策法案加以监管控制。
早在2017年,中国政府在2017年发布了《新一代人工智能发展规划》,明确了将人工智能作为新兴产业发展的重点,同时也将其应用于国防和军事领域。
2023年10月18日,习近平主席在第三届“一带一路”国际合作高峰论坛开幕式的主旨演讲中提出《全球人工智能治理倡议》,围绕人工智能发展、安全、治理三个方面,系统阐述了中国在人工智能治理领域的11项主张,其中明确提出:
“发展人工智能应坚持“智能向善”的宗旨,遵守适用的国际法,符合和平、发展、公平、正义、民主、自由的全人类共同价值,共同防范和打击恐怖主义、极端势力和跨国有组织犯罪集团对人工智能技术的恶用滥用。各国尤其是大国对在军事领域研发和使用人工智能技术应该采取慎重负责的态度。在人工智能与军事领域,各国应积极开展国际合作,共享信息、经验和最佳实践,以促进人工智能与军事领域的可持续发展。”
但这并非一国之力可以解决,而是需要多方形成合力以求共治。
为了实现这一目标,各国政府和国际组织需要加强合作,共同制定规范和标准,确保人工智能的研发和应用符合道德和法律的要求。同时,也需要加强国际交流和合作,共同推动人工智能技术的发展和应用。
只有通过合作与规范,才能让技术更好地造福人类,而不是任由其打开“潘多拉的魔盒”,进而沦为隐性战争的工具。
综合来源
https://m.thepaper.cn/newsDetail_forward_23351488 https://new.qq.com/rain/a/20240114A01SD300 https://www.thepaper.cn/newsDetail_forward_17262083 https://www.researchgate.net/publication/369305190_Mitigating_and_Responding_to_Cognitive_Warfare https://mp.weixin.qq.com/s/s1NVr4k8O2lYsqdrjSpSTg https://mp.weixin.qq.com/s/dHi00ywAsTQQcFHiVPf6GA
主理人丨刘典
关于我们
清华大学人工智能国际治理研究院(Institute for AI International Governance, Tsinghua University,THU I-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参与人工智能国际治理提供智力支撑。
新浪微博:@清华大学人工智能国际治理研究院
微信视频号:THU-AIIG
Bilibili:清华大学AIIG
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢