- 简介许多可解释的人工智能(XAI)技术通过提供简洁明了的显著信息(如稀疏线性因子)来实现可解释性。然而,用户要么只看到不准确的全局解释,要么看到高度变化的局部解释。我们建议通过利用人类认知能力逐步接收更多细节来提供更详细的解释。针对线性因子解释(因子×值=结果),我们引入增量XAI,通过提供基本+增量因子来自动分区解释,以帮助用户阅读和记忆更真实的解释。通过重复使用基础因子并减少在非典型情况下显示的因子数量,可以提高可记忆性。在建模、形成和总结性用户研究中,我们评估了增量XAI相对于基线解释方法的忠实度、可记忆性和可理解性。这项工作有助于提供更可用的解释,使用户能够更好地融入其中,促进与人工智能的直观互动。
- 图表
- 解决问题提供更详细的解释,以帮助用户更好地理解AI的决策过程和结果。
- 关键思路使用增量XAI技术,通过逐步提供更多的细节来提高解释的可信度和可记忆性,同时减少在非典型情况下显示的因素数量。
- 其它亮点论文提出了增量XAI技术,通过基础+增量因素的方式来提供更详细的解释,同时在非典型情况下减少因素数量,以提高可记忆性。作者进行了建模、形成性和总结性用户研究,评估了增量XAI的可信度、可记忆性和可理解性。
- 最近的相关研究包括解释性AI、透明度和可解释性机器学习。
沙发等你来抢
去评论
评论
沙发等你来抢