- 简介本文回顾了可信人工智能(TAI)及其各种定义。考虑到任何社会中尊重的原则,TAI通常被描述为具有一些属性,其中一些属性在监管或工程背景下导致了混淆。我们反对使用“负责任的”或“道德的”人工智能等术语作为TAI的替代品。为了帮助澄清任何混淆,我们建议将它们留在一边。考虑到TAI的主观性和复杂性,开发一个通用框架被认为是不可行的。相反,我们主张采用以解决公平性、偏见、风险、安全性、可解释性和可靠性等关键属性和特性为中心的方法。我们审查正在进行的监管环境,重点关注欧盟、中国和美国的倡议。我们认识到基于地缘政治和地理原因的人工智能法规的差异对跨国公司构成了额外的挑战。我们确定风险是AI监管和TAI的核心因素。例如,正如欧盟-AI法案中所概述的那样,组织必须评估其AI产品的风险水平,以相应行动(否则将面临巨额罚款)。我们比较了TAI实施的模式以及多个跨职能团队在整个过程中的参与。因此,强制实施TAI的蛮力方法将使其效率和敏捷性无效。为了解决这个问题,我们介绍了我们的框架“设定-形式化-测量-行动”(SFMA)。我们的解决方案强调了将TAI感知的度量标准、TAI的驱动因素、利益相关者和业务/法律要求转化为实际的基准或测试的重要性。最后,由于对强大的AI模型的恐慌而导致的过度监管实际上也可能会损害TAI。根据GitHub用户活动数据,在2023年,AI开源项目成为贡献者账户最多的项目之一。在可信人工智能领域实现创新取决于开源社区的独立贡献。
- 图表
- 解决问题论文旨在探讨可信人工智能(TAI)的定义,以及如何实现TAI。
- 关键思路提出了一个基于关键属性和特性的方法,如公平性、偏见、风险、安全性、可解释性和可靠性,来实现TAI。同时提出了一个SFMA框架来实现TAI。
- 其它亮点论文分析了欧盟、中国和美国的AI监管现状,强调了风险评估在TAI中的核心作用。论文还介绍了开源社区在TAI创新中的重要性。
- 相关研究包括欧盟的AI法案、中国的新一代人工智能发展规划和美国的国家人工智能研究和发展战略。
沙发等你来抢
去评论
评论
沙发等你来抢