- 简介本文介绍了一种协作式、以人为中心的AI、算法和自动化伤害分类法。我们认为,虽然现有的分类法很有价值,但它们往往过于狭窄、不够清晰,通常只适用于从业者和政府,而且经常忽略了更广泛公众的需求。基于现有分类法和大量记录的事件,我们提出了一种清晰易懂、适用于广泛受众的、灵活可扩展、互操作性强的分类法。通过与专家和众包注释测试的反复完善,我们提出了一种分类法,可以成为民间社会组织、教育工作者、决策者、产品团队和普通公众的有力工具。通过促进对AI和相关技术的现实伤害的更深入理解,我们旨在增加理解,赋予非政府组织和个人识别和报告违规行为的能力,为政策讨论提供信息,并鼓励负责任的技术开发和部署。
-
- 图表
- 解决问题本文旨在提出一个协作的、以人为中心的AI、算法和自动化伤害分类法。
- 关键思路本文提出了一个清晰易懂、适用于广泛受众、灵活可扩展且可互操作的分类法。
- 其它亮点本文通过与专家和众包标注测试的迭代完善,提出了一个可用于公民社会组织、教育工作者、政策制定者、产品团队和普通大众的分类法。
- 在这个领域中,最近的相关研究包括《A Taxonomy of Operational Cyber Security Risks》、《A Taxonomy of Ethical Risks in Artificial Intelligence》等。
NEW
提问交流
提交问题,平台邀请作者,轻松获得权威解答~
向作者提问

提问交流