随着人工智能变得越来越普遍,人们对这项技术的潜在危害的认识也越来越多。无论是通过意外或恶意使用、事故还是不当应用,人工智能研究都可能对环境、边缘社区和整个社会产生负面的下游影响。知道了这一点,人工智能研究人员如何才能更好地预测他们的工作将对世界产生的影响?提出原创研究的国际人工智能会议可以做些什么来促进这种反思?

今年早些时候,Ada Lovelace 研究所、CIFAR 和人工智能伙伴关系汇集了 40 多名人工智能伦理专家和近期机器学习 (ML) 会议组织者的组织者,以帮助回答这些问题。他们一起考虑了会议组织者可以做些什么来鼓励提交论文供会议审查的作者反思人工智能研究的潜在下游影响的习惯。由所有三个组织共同撰写的一份新报告“道德人工智能文化”综合了此次会议收集的见解,提供了会议组织者可以实施的五个“大创新”以促进负责任的研究。

$hero_image['alt']

内容中包含的图片若涉及版权问题,请及时与我们联系删除