点击蓝字

关注我们

海外智库观察

人工智能作为一项新兴技术,其可能带来的潜在风险引发了公众对其应用的担忧,不同的行为体或出台战略规划、或制定标准规范、或颁布法律法规以实现人工智能的监管。总体而言,人工智能治理的路径大致有三种范式:对于现有规则重新解释,使其囊括人工智能、对现有规则进行增添、通过国际行为形成国际习惯法或直接通过新的法案或条约,创造全新的治理框架。其中,对于人工智能治理应当以规则、标准等“软法”予以约束,还是使用法律法规等“硬法”强制限制、应当优先考虑“发展”还是“安全”先行仍存在分歧。本期海外智库观察选择的两篇智库文章都在一定程度上回应了“人工智能治理是发展先行还是安全先行”的问题。


美国企业研究所

American Enterprise Institute, AEI

制定人工智能革命破坏性缓解政策的三个原则

2024年6月18日,美国企业研究所发布了其美国企业研究所经济政策研究部主任、政治经济学阿瑟·伯恩斯学者Michael R. Strain撰写的文章《不要让时钟慢下来:应对人工智能革命(Don’t Slow the Clock: Responding to the AI Revolution)》。文章对比工业革命和数字革命带来的不同程度的负面影响,并由数字革命时期适时颁布了缓解破坏的政策,指出了政策变化应遵守的三个广泛原则,即支持新技术发展、鼓励参与经济生活,以及制定政策减轻革命破坏。


首先,作者指出了几次技术革命负面影响。人工智能不会导致大规模失业,但其破坏性影响并不乐观。再如许多经济史学家认为,在工业革命开始后的几十年里,英国工人阶级的生活水平并未改善,甚至整个职业被消灭,尽管有一些幸存工作,工资也有了大幅的下降。人们从乡村涌入肮脏、不卫生的城市,接受了以羞辱性的纪律和危险的工作条件为特征的工厂工作。这正如卡尔·马克思和弗里德里希·恩格斯所说,“不断革新生产工具”导致了“整个社会关系的革命”,这些事件也从根本上动摇了英国社会。


其次,作者以数字革命后政府制定的缓解政策为例,阐释了三个政策变化的应遵守的原则。始于20世纪80年代的数字革命虽然具有相当的破坏性,但程度不及工业革命,其中的部分原因是美国已经制定了缓解破坏的政策,尽管如此,这些政策在当时并非惊人的成功。人们应该在即将到来的AI革命中做得更好。目前,人们仍处于生成式AI发展的早期阶段,因此这场政策辩论必然且适当地处于高层次。但任何政策变化都应该遵循三个广泛的原则。第一,认识到技术进步对社会有益,不应减缓其步伐。人们应该将大多数技术变革视为一个既定事实,它将根据科学和创新者的想象力发展,并围绕有机技术进步设计政策。决策者应该试图缓解技术变革带来的短期破坏,但不应以牺牲工人和家庭从技术进步中获得的巨大长期利益为代价。第二个原则是鼓励人们参与经济生活。对许多人来说,通过市场活动为人类做出贡献是建立完整和繁荣生活的关键,而工作可以通过共同的目标和经历将人们聚集在一起,并将人们与社区联系起来,因此工作可以建立了一个以相互贡献、依赖和义务为特征的繁荣社会。决策者在设计援助失业工人的方法时不应打击工作积极性。鉴于担心AI会导致大规模失业,人们呼吁提供足以维持生活的普遍基本收入是可以理解的,但这种呼吁会阻碍人们参与经济生活,呼吁推行“全民福利”模式的大规模中产阶级福利国家也应该基于类似理由被拒绝。第三个原则是为真正需要帮助的人维持强大的安全网。快速的技术变革彻底改变了经济的巨大部门,使那些不再具备教育、经验或技能来追求剩余或新兴行业机会的工人失业,而上述20世纪制定的福利政策帮助缓解了数字革命的破坏性影响。面对生成式AI的影响时,决策者可以参考这个例子。


最后,作者指出,这三个原则可以帮助度过政策辩论的早期阶段,来确定合适的政策。暂停AI发展的政策应该立即被拒绝,而那些旨在通过提高资本税率来“平衡”工人和机器之间竞争环境的政策应该被视为减缓AI采用的努力而被否决,同样目的的增加工人议价能力的呼吁也应被拒绝。呼吁更多地使用反托拉斯措施来打击开发新技术的公司的政治影响不仅是对反托拉斯权力的滥用,也是对长期繁荣的威胁,这也应该被拒绝。


2024年6月3日,哈佛大学肯尼迪政府学院下属贝尔弗科学与国际事务中心发布了麦肯锡斯坦福办事处高级合伙人、麦肯锡人工智能QuantumBlack的全球联席负责人Ben Ellencweig等人撰写的文章《多模态人工智能如何重塑全球危机应对(How Multimodal AI Could Retool Global Crisis Response)》。文章表明,随着政府领导人应对日益严重和复杂的灾难,多模态人工智能成为有效、协调危机应对的有前途的工具。多模式人工智能可用于预警系统和场景模拟,如数据收集和处理、事件预测、情景模拟、结果解释和行动计划。多模态人工智能可以在危机来临之前保障生命和生计,如预测模型、公共警报系统、个性化学习、反馈和指导。多模式人工智能可以帮助应急管理专业人员做出决策、可视化数据并分析公众情绪。多模式人工智能还可以通过社区恢复工作和后记分析来支持灾难恢复工作。








美国战略与国际研究中心

American Center for Strategy and International Studies, CSI

对人工智能技术的过度焦虑将阻碍人工智能创新的步伐

2024年6月11日,美国战略与国际研究中心发布其华盛顿特区战略技术项目主任James A. Lewis撰写的文章《人工智能的真正风险(A Real Risk for Artificial Intelligence)》。文章指出,当前公众对人工智能技术存在过度焦虑的现象,尽管人工智能技术可能存在风险,但当前一些行为体对人工智能的监管方式将产生阻碍人工智能创新的副作用,公众应当抛弃对人工智能不切实际的过度焦虑,找到利用人工智能的最佳方案以加速创新和生产力。


首先,作者指出了人工智能(Artificial Intelligence, AI)的发展产生了一种“矛盾”现象。一方面,AI工具将重塑当前的经济发展格局,制造业、金融业和消费者互动的研究公司都在使用AI管理客户来试图提高生产力,创新者也在寻找更好的方法来利用AI提高既有生产工具的效率和获取竞争优势。当前的生成式AI(或称“GenAI”)引发了新一轮关注,其经过大量数据库的训练,能够在缺少人工干预的情况下生成文本、软件和视频。另一方面,AI的输出依赖于从网络上抓取数据,这挑战了现有的知识产权法律,并引发了公众的焦虑。首先,公众担心AI会导致大规模失业这一担忧最早可追溯到19世纪初工业革命初期,英国工人破坏机器和工厂,认为它们对其工作产生了威胁,而公众产生这种威胁认知的根本在于其混淆了自动化可能带来的风险与分配政策的失败,因为事实上,自动化技术创造的就业机会远多于其带来的失业影响。第二,公众对AI的另一个恐惧在于担心AI会产生自我意识,并控制世界、摧毁人类。当前,大多数的研究人员对AI是否会拥有独立规划和思考并威胁人类生存的能力存在分歧,埃隆·马斯克说 AI 是“未来文明最大的风险之一”,而物理学家斯蒂芬·霍金警告说“完全人工智能的发展可能会终结人类”。第三,因为一些武器化的人工智能设备可以在没有人类监督的情况下在战争中采取自主行动,公众担心可能会产生类似“杀手机器人”的存在。当前,自主武器存在军事化的趋势,防空系统就是由于人类反应速度过慢,无法应对来袭的高超音速导弹而开发的自动化武器。而作者认为,尽管武器将被自动化,但杀手机器人可能永远不会存在。第四,AI已经存在被恶意使用的先例,比如:AI 被用以放大“假新闻”的影响,加剧了互联网引发的政治动荡;由AI生成的世界领导人的“深度伪造”视频,引发了社会的担忧。


其次,对于上述对AI的担忧,作者认为,公众如果仅仅关注AI的潜在风险、定义没有经验事实支持的伦理使用将损害AI对经济增长和创新方面的益处。由于公众对AI的隐忧愈发凸显,人工智能政策的未来趋势将是基于AI潜在危害的预测而非实际发生的案例以制定严格的监管规则。这一趋势将产生阻碍AI创新的影响,通过设置障碍并创建不合理的合规负担,政府将减少AI可能帮助创造的新产品和服务数量,并阻止新兴公司进入该领域,进而导致创新的倒退。自20世纪90年代以来,欧盟对数字技术的监管为新兴技术研发者和投资者设置了诸多障碍,因而损害了欧洲的经济增长,比如法国和德国的GDP增长率是美国和中国的四分之一,正是因为其法规减缓了数字化的发展,这也解释了欧盟缺乏科技巨头和独角兽公司的原因。对于过于担忧阻碍AI发展的“困境”,作者认为导致这一困境产生的动因有二:其一,一些恶意行为者希望通过发表极端言论、借助舆论的力量吸引公众关注,从而创造某些商业收益,或者是一些在AI领域处于领先地位的大公司希望借助监管政策使潜在竞争对手处于不利地位。其二,从公众到政府的广大群体缺乏对于技术发展趋势的准确把握。自动化会导致失业的预测可以追溯到两个世纪前的工业时代开始,关于杀手机器人主宰人类生活的预测可以追溯到20世纪20年代;1945年后,关于计算机智能带来生存威胁的预测层出不穷;核武器引发了对人类生命终结的预测,这些预测虽然在情感上满足了公民对于未知所产生的恐慌情绪,但实际上这些预测的结果往往是错误的。


最后,对于当前对于AI监管呼声愈发高涨的现象,作者指出,AI只是用机器取代人类劳动的历史漫长过程中的一小部分,自动化技术将会继续提高民众的生活水平和生活质量,而仅仅关注人工智能的风险显然不利于社会的进步与发展。当前,政策制定者应当找到技术创新和减轻公众对技术恐慌的平衡点,利用AI以加速创新和生产力,并改善公民的生活水平。

原文链接:

[1]https://www.aei.org/op-eds/dont-slow-the-clock-responding-to-the-ai-revolution/
[2]https://www.csis.org/analysis/real-risk-artificial-intelligence


文章检索:周韫斐

编译:边洁、朱奕霏、杨雨虹

审核:王净宇

排版:夏冉

终审:梁正、鲁俊群


清华大学人工智能国际治理研究院编
上述信息均根据原文内容整理,谨供读者参考,不代表本机构立场和观点

往期回顾

海外智库丨人工智能国际治理观察第243期

海外智库丨人工智能国际治理观察第242期

海外智库丨人工智能国际治理观察第241期

关于我们

清华大学人工智能国际治理研究院(Institute for AI International Governance, Tsinghua University,THU I-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参与人工智能国际治理提供智力支撑。



新浪微博:@清华大学人工智能国际治理研究院

微信视频号:THU-AIIG

Bilibili:清华大学AIIG