- 简介随着基于人工智能的决策辅助技术的迅速发展,不同形式的人工智能辅助越来越多地融入到人类的决策过程中。为了最好地支持人类决策,必须定量地了解不同形式的人工智能辅助如何影响人类的决策行为。为此,目前的研究主要集中在使用“黑匣子”模型对人类行为进行端到端的预测,往往缺乏对人工智能辅助影响人类决策过程的微妙方式的解释。同时,优先考虑人类行为预测的可解释性的方法往往是为一种特定形式的人工智能辅助量身定制的,难以适应其他形式的辅助。本文提出了一个计算框架,可以对不同形式的人工智能辅助对AI辅助决策中的决策者的影响进行可解释的描述。通过将人工智能辅助概念化为人类决策过程中的“助推”,我们的方法围绕如何模拟不同形式的人工智能辅助修改人类在决策中权衡不同信息的策略展开建模。对从真实人类决策者收集的行为数据的评估表明,所提出的框架在准确预测AI辅助决策中的人类行为方面优于各种基线。基于所提出的框架,我们进一步提供了有关不同认知风格的个体如何被人工智能辅助以不同方式助推的见解。
- 图表
- 解决问题提供一个可解释的框架,量化不同形式的AI援助对人类决策行为的影响。
- 关键思路将AI援助视为人类决策过程中的“推动”,并建立模型来描述不同形式的AI援助如何修改人类决策者权衡不同信息的策略。
- 其它亮点论文提出的框架在真实人类决策者数据的行为预测方面优于各种基线方法。并且,该框架还提供了不同认知风格的个体如何被AI援助推动的洞察。
- 当前的研究主要集中于使用“黑盒”模型对人类行为进行端到端预测,而缺乏对AI援助影响人类决策过程的微妙方式的解释。同时,注重人类行为预测可解释性的方法通常针对一种特定形式的AI援助,难以适应其他形式的援助。
沙发等你来抢
去评论
评论
沙发等你来抢