Reflective Hybrid Intelligence for Meaningful Human Control in Decision-Support Systems

解决问题: 本论文试图解决随着人工智能系统能力和普及性的增长,社会必须在减少人类自主权、危害民主和限制人权之间做出选择的问题。论文旨在提出一种自我反思的人工智能系统,以实现对人工智能系统的有意义的人类控制。

关键思路: 论文提出了一个框架,将来自心理学和哲学的知识与形式推理方法和机器学习方法相结合,以创建响应人类价值观和社会规范的人工智能系统。论文认为,自我反思的人工智能系统可以导致自我反思的混合系统(人类+人工智能),从而通过提供可理解的信息和对可能的人类道德盲点的洞察,增加有意义的人类控制并增强人类道德推理能力。

其他亮点: 论文提出了一种可能的研究方法,以设计和开发人工智能系统的自我反思能力。实验的设计方法未在摘要中提到。该论文未提供使用的数据集或开源代码。本论文的思路在当前领域的研究中具有新意,并且自我反思的人工智能系统的概念是该论文的一个亮点。值得进一步研究的工作包括如何实现自我反思的人工智能系统以及如何使这些系统更具可解释性。

关于作者: Catholijn M. Jonker是代表作《从人工智能到人工智能》的作者,Luciano Cavalcante Siebert和Pradeep K. Murukannaiah的代表作尚未在我的数据库中找到。

相关研究:

  1. "The Ethics of Artificial Intelligence" by Nick Bostrom and Eliezer Yudkowsky, Future of Humanity Institute, University of Oxford.
  2. "Artificial Intelligence and Human Rights" by Jessica Fjeld and Margaret Hu, Yale Law School.

论文摘要:随着人工智能系统能力的不断增强和普及,社会必须共同选择:是减少人类自主权、危害民主和人权,还是选择与人类和社会价值相一致、培养协作、韧性、知识和道德行为的人工智能。在本章中,我们介绍了具有自我反思能力的人工智能系统,以实现对人工智能系统的有意义的人类控制。我们提出了一个框架,将心理学和哲学的知识与形式推理方法和机器学习方法相结合,创建对人类价值观和社会规范响应的人工智能系统,重点关注决策支持系统。我们还提出了一种可能的研究方法,以设计和开发人工智能系统的自我反思能力。最后,我们认为,自我反思的人工智能系统可以导致自我反思的混合系统(人类+人工智能),从而增加有意义的人类控制,并通过提供可理解的信息和洞察力,增强人类的道德推理能力,以应对可能存在的人类道德盲点。

内容中包含的图片若涉及版权问题,请及时与我们联系删除