- 简介虽然大型语言模型(LLMs)已经展示了在不同领域生成令人信服的文本的显著能力,但是对其潜在风险的担忧突显了理解文本生成背后原理的重要性。我们提出了LLM Attributor,这是一个Python库,为LLM文本生成的训练数据归因提供交互式可视化。我们的库提供了一种快速将LLM文本生成归因于训练数据点以检查模型行为、增强其可信度并比较模型生成的文本与用户提供的文本的新方法。我们描述了我们工具的视觉和交互设计,并强调了使用场景,这些场景是使用了两个不同数据集(有关最近灾难的在线文章和有关金融的问答对)进行微调的LLaMA2模型。由于LLM Attributor广泛支持计算笔记本,用户可以轻松地将其集成到其工作流程中,以交互式地可视化其模型的归因。为了更方便地访问和扩展性,我们在https://github.com/poloclub/LLM-Attribution上开源了LLM Attributor。视频演示可在https://youtu.be/mIG2MDQKQxM中观看。
- 图表
- 解决问题LLM Attributor的问题是提高LLM文本生成的可信度和理解其生成的原因。这是一个新问题,因为LLMs的潜在风险引起了人们的关注。
- 关键思路LLM Attributor是一个Python库,提供交互式可视化,用于对LLM的文本生成进行训练数据归因。它可以帮助用户检查模型行为,提高模型的可信度,并比较模型生成的文本与用户提供的文本。
- 其它亮点LLM Attributor支持广泛的计算笔记本,并已在两个数据集上进行了测试。该库是开源的,并提供视频演示和代码。
- 最近的相关研究包括对LLMs的潜在风险的调查,以及其他用于解释模型行为的工具和技术的开发。
沙发等你来抢
去评论
评论
沙发等你来抢