- 简介可解释性人工智能(XAI)工具代表了更加人性化和人在环路的人工智能方法的转变,强调用户需求和视角在机器学习模型开发工作流中的重要性。然而,尽管今天大多数机器学习资源都是为Python计算环境(如JupyterLab和Jupyter Notebook)开发的,但交互式XAI系统并非如此,它们通常仍作为独立接口实现。在本文中,我们通过确定三种设计模式来将前端XAI接口嵌入Jupyter,即:1)从Python到JavaScript的单向通信,2)双向数据同步,和3)双向回调。我们还提供了一个开源工具包,bonXAI,演示了如何使用每个设计模式来构建用于Pytorch文本分类工作流的交互式XAI工具。最后,我们总结了最佳实践和开放性问题的讨论。本文的目标是讨论如何为计算笔记本开发交互式XAI工具,以及如何更好地将它们整合到现有的模型开发工作流中,以支持更具协作性和以人为中心的人工智能。
- 图表
- 解决问题如何将可解释的AI(XAI)工具嵌入JupyterLab和Jupyter Notebook等Python计算环境中?
- 关键思路本文提出了三种设计模式,以在Jupyter中嵌入前端XAI界面,包括从Python到JavaScript的单向通信、双向数据同步和双向回调。同时,提供了一个开源工具包bonXAI,用于演示如何使用每种设计模式构建交互式XAI工具。
- 其它亮点实验使用了Pytorch文本分类工作流程,开源了bonXAI工具包,提供了三种嵌入式XAI界面的设计模式,为更协作、以人为中心的AI提供支持。
- 最近的相关研究包括:1. 'Towards Trustworthy AI Development: Mechanisms for Supporting Verifiable Claims' 2. 'Explainable AI for Trees: From Local Explanations to Global Understanding' 3. 'Explainable AI: A Primer for the Data Scientist'
沙发等你来抢
去评论
评论
沙发等你来抢