Explainable artificial intelligence approaches for brain-computer interfaces: a review and design space

2023年12月20日
  • 简介
    本综述提供了可解释人工智能技术应用于脑-计算机界面的综合视角。脑-计算机界面使用预测模型来解释各种高风险应用的脑信号。然而,在这些复杂模型中实现可解释性是具有挑战性的,因为这会影响准确性。可解释人工智能的领域出现是为了解决各个利益相关者的可解释性需求,但是在脑-计算机界面(XAI4BCI)的可解释人工智能领域中缺乏综合的视角。因此,有必要在这个背景下区分关键概念,如可解释性、可解释性和理解,并制定一个全面的框架。为了了解脑-计算机界面的可解释人工智能的需求,我们提出了六个关键研究问题,进行系统综述和元分析,包括其目的、应用、可用性和技术可行性。我们采用 PRISMA 方法 - 首选系统综述和元分析报告项目,对2015年及以后发表的研究进行了综述(n = 1246)和分析(n = 84),以获取关键见解。结果强调,目前的研究主要关注为开发人员和研究人员提供可解释性,旨在证明结果并增强模型性能。我们从文献中讨论了可解释人工智能应用于脑-计算机界面的独特方法、优点和局限性。我们从哲学、心理学和社会科学中获得了启示。我们提出了一个 XAI4BCI 的设计空间,考虑到可视化和调查预测模型结果的不断发展的需求,定制为 BCI 开发和部署生命周期中的各个利益相关者。本文是首次专门关注 XAI4BCI 研究文章的综述。这个系统综述和元分析的发现以及提出的设计空间,促进了关于建立 BCI 解释标准、突出当前的限制和指导 XAI 在 BCI 中的未来的重要讨论。
  • 图表
  • 解决问题
    如何在脑机接口中实现可解释的人工智能模型?
  • 关键思路
    通过系统性回顾和元分析的方式,提出了XAI4BCI框架,旨在为脑机接口开发和部署生命周期中的各个利益相关者提供可解释的预测模型。
  • 其它亮点
    使用PRISMA方法回顾和分析了1246篇文章,并从中选择了84篇进行深入研究。研究结果表明,当前的XAI4BCI研究主要关注于为开发人员和研究人员提供可解释性,以证明结果并提高模型性能。提出了XAI4BCI的设计空间,旨在定制各种利益相关者的预测模型结果的可视化和调查。
  • 相关研究
    最近的相关研究包括:《可解释的人工智能:从黑匣子到透明箱子》、《在可解释人工智能的帮助下,人们对机器学习模型的信任和采纳》等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论