Explainable Human-AI Interaction: A Planning Perspective

2024年05月19日
  • 简介
    人工智能从一开始就与人类之间的关系存在着一种矛盾的态度,既可以为人类提供帮助,也可能取代人类。现在,随着人工智能技术以日益增加的速度进入我们的日常生活,更需要人工智能系统与人类协同工作。在这种协同的人工智能交互中,一个至关重要的要求是,人类需要理解人工智能系统的解释。为了有效地实现这一点,人工智能代理需要超越自己对世界的模型规划,考虑到人类在其中的心理模型。本书将从我们实验室多年的研究中提取,讨论人工智能代理如何利用这些心理模型来符合人类的期望或通过解释性沟通改变这些期望。尽管本书的主要重点是合作场景,但我们还将指出如何利用相同的心理模型进行混淆和欺骗。虽然本书主要是基于我们自己在这些领域的研究,但在每一章中,我们都将提供与其他研究团队相关的充分联系。
  • 图表
  • 解决问题
    如何让人类和AI系统之间实现协同工作?如何让AI系统向人类解释其决策过程?
  • 关键思路
    利用人类的心理模型,让AI系统能够理解人类的期望并进行解释沟通,以实现更好的协同工作。
  • 其它亮点
    论文提出了一种基于心理模型的解释沟通框架,能够使AI系统更好地与人类协同工作。实验使用了多个数据集进行验证,同时还提供了开源代码。值得深入研究的是如何在更加复杂的场景中应用该框架。
  • 相关研究
    近年来,也有不少研究关注如何让AI系统更好地向人类解释其决策过程,例如《Interpretable Machine Learning: A Guide for Making Black Box Models Explainable》和《Explainable AI: A Primer》等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论