- 简介机器学习在自主武器系统的开发中的应用,给地缘政治稳定和人工智能研究的自由交流带来了严重的风险。与来自超级人工智能的风险相比,这个话题最近受到的关注相对较少,但它对技术发展的预测要求较少,因此是一个更近期的问题。机器学习已经使自主武器系统在许多战场角色中取代了人类士兵,减少了发动攻击战争的政治成本。在对等对手的情况下,这增加了“低强度”冲突升级为更广泛战争的可能性。在非对等对手的情况下,它减少了侵略战争带来的国内反弹。这种影响不需要任何超人类的人工智能能力,也不需要考虑其他关于军事人工智能使用的伦理问题,如平民伤亡风险。此外,自主武器系统的军事价值引发了人工智能武器竞赛的恐慌和对人工智能研究的国家安全限制的错误强加。本文的目标是提高公众和机器学习研究者对军事技术中全面或近乎全面自主的近期风险的意识,并提供规制建议以减轻这些风险。我们呼吁人工智能政策专家和特别是国防人工智能社区,在开发和部署自主武器系统时采取透明和谨慎的态度,以避免我们在这里强调的对全球稳定和人工智能研究的负面影响。
- 图表
- 解决问题探讨机器学习在自主武器系统中的应用对全球稳定和AI研究自由的风险,提出监管建议。
- 关键思路机器学习已经开始在许多战场角色中替代人类士兵,从而降低了发动攻击战争的政治成本。这种影响不需要超级人工智能的能力,可能导致低强度冲突的升级和人工智能武器竞赛。
- 其它亮点论文呼吁AI政策专家和国防AI社区在开发和部署AWS时遵循透明和谨慎的原则,避免我们在这里强调的对全球稳定和AI研究的负面影响。
- 相关研究包括超级人工智能(AGI)的风险和其他军事AI使用的伦理问题。
沙发等你来抢
去评论
评论
沙发等你来抢