- 简介技术创新展示了为社会带来益处和危害的非凡能力。人工智能构成了一种民主化的先进技术,可以被社会的大部分人包括恶意行为者所接触。本研究提出了一个分类法,重点关注与人工智能相关的(地缘)政治风险。它总共确定了12种风险,分为四类:(1)地缘政治压力,(2)恶意使用,(3)环境、社会和伦理风险,以及(4)隐私和信任侵犯。本文对欧盟人工智能法案进行了政策评估,并加入了监管方面的内容。这项里程碑式的法规于2023年3月通过,有潜力在人工智能风险减少方面产生积极的自上而下的影响,但需要进行监管调整,以更全面地减轻风险。开源模型的监管例外、将GPAI模型分类为系统性风险的过高参数以及将专门为军事目的设计的系统排除在法规义务之外,留下了未来行动的空间。
- 图表
- 解决问题本文旨在提出一个以地缘政治风险为重点的人工智能风险分类法,并评估欧盟AI法案的政策影响。
- 关键思路本文提出了一个基于地缘政治风险的人工智能风险分类法,并对欧盟AI法案进行了政策评估。
- 其它亮点本文提出了12种人工智能风险,并将其分为四类。文章还对欧盟AI法案进行了政策评估,指出了法规中需要进行调整的方面。
- 最近的相关研究主要集中在人工智能风险分类和政策制定方面。
沙发等你来抢
去评论
评论
沙发等你来抢