- 简介AI系统的可解释性和透明度是不可否认的重要性,因此有许多研究和工具来解决这些问题。然而,现有的工作并没有充分考虑到AI供应链中各种不同利益相关者的需求和对解释性和透明度的考虑可能不同。本文提出了在LLMs背景下重新审视这些重要概念的必要性。为此,我们进行了一项定性研究,共有71位不同的利益相关者参与,探讨了这些概念的普遍看法和需求。这项研究不仅确认了在XAI和LLMs的透明度中探索“谁”是重要的,而且反思了如何在揭示常常被忽视的利益相关者和他们的信息需求的同时做到最佳实践。我们的研究结果表明,研究人员和实践者应同时明确考虑解释性和透明度中的“谁”,信息需求中的“什么”,以及“为什么”需要这些信息,以确保LLM供应链的负责任设计和开发。
- 图表
- 解决问题探讨LLMs的可解释性和透明度对于不同利益相关者的重要性和需求
- 关键思路需要同时澄清在可解释性和透明度考虑中的“谁”,信息需求的“什么”,以及“为什么”需要这些信息,以确保LLM供应链的负责任设计和开发
- 其它亮点使用定性研究方法对71个不同利益相关者进行了调查,提出了关于探索XAI和透明度的重要性和需求的见解,同时反思了如何同时考虑LLMs中的各种利益相关者以及他们的信息需求
- 最近的相关研究包括《Explainable AI: A Survey》、《Towards a Rigorous Science of Interpretable Machine Learning》等
沙发等你来抢
去评论
评论
沙发等你来抢