【标题】Explainable Reinforcement Learning via Model Transforms

【作者团队】Mira Finkelstein, Lucy Liu, Nitsan Levy Schlot, Yoav Kolumbus, David C. Parkes, Jeffrey S. Rosenshein, Sarah Keren

【发表日期】2020.9.24

【论文链接】https://arxiv.org/pdf/2209.12006.pdf

【推荐理由】理解强化学习(RL)智能体新出现的行为可能是困难的,因为这种智能体通常是在复杂的环境中使用高度复杂的决策程序进行训练。这就产生了各种用于解释RL的方法,旨在调和智能体的行为和观察者所预期的行为之间可能出现的差异。最近的大多数方法依赖于领域知识、对智能体的策略的分析,或者对底层环境的特定元素的分析,通常被建模为马尔科夫决策过程(MDP)。本文主张即使底层MDP不完全已知或没有被智能体维护(当使用无模型方法时),它仍然可以被利用来自动生成解释。为此,本文建议使用正式的MDP抽象和转换,以前在文献中用于加速寻找最优策略,以自动产生解释。由于这种变换通常是基于环境的符号表示,它们可以代表对预期和实际智能体行为之间的差距的有意义的解释。本文正式定义了这个问题,提出了一类可用于解释突发行为的变换,并提出了能够有效搜索解释的方法。