- 简介生成式人工智能(GenAI)标志着人工智能从仅能识别到能够生成各种任务解决方案的转变。随着生成的解决方案和应用变得越来越复杂和多方面化,解释性(XAI)出现了新的需求、目标和可能性。在本文中,我们详细阐述了为什么XAI在GenAI崛起时变得越来越重要,以及它对解释性研究的挑战。我们还揭示了解释应该满足的新的和新兴的期望,涵盖了可验证性、交互性、安全性和成本等方面。为此,我们专注于调查现有的作品。此外,我们提供了一个相关维度的分类法,使我们能够更好地表征现有的GenAI XAI机制和方法。我们讨论了确保XAI的不同途径,从训练数据到提示。我们的论文为非技术读者提供了简短但简明的GenAI技术背景,重点关注文本和图像,以更好地理解GenAI的新型或改进的XAI技术。然而,由于GenAI作品的广泛性,我们决定放弃与解释评估和使用相关的详细方面。因此,该手稿既适合技术方向的人,也适合其他学科,如社会科学家和信息系统研究人员。我们的研究路线图提供了十多个未来研究方向。
- 图表
- 解决问题解释性人工智能在生成式人工智能中的挑战和需求
- 关键思路本文介绍了解释性人工智能(XAI)在生成式人工智能(GenAI)中的重要性,提出了XAI应该满足的新要求,如可验证性、交互性、安全性和成本等,并提供了相关维度的分类,探讨了确保XAI的不同途径。
- 其它亮点本文为非技术读者提供了GenAI的简要技术背景,着重介绍了针对GenAI的新型或改进的XAI技术。研究路线图提供了未来研究的十多个方向。
- 最近的相关研究包括《解释性人工智能:从黑匣子到可理解的系统》、《生成式人工智能的解释性:问题、方法和挑战》等。
沙发等你来抢
去评论
评论
沙发等你来抢