- 简介在社交媒体上广泛传播的错误信息和虚假信息以及AI生成的文本的大量增加,使得人们越来越难以验证和信任所遇到的信息。许多事实核查方法和工具已经被开发出来,但它们通常缺乏适当的可解释性或粒度,无法在各种情境下使用。易于使用、易于访问并能执行细粒度证据归因的文本验证方法变得至关重要。更重要的是,建立用户对这种方法的信任需要呈现每个预测背后的理由,因为研究表明这显著影响人们对自动化系统的信任。将用户的注意力集中在具体的问题内容上,而不是提供简单的标签,也是至关重要的。在本文中,我们提出了$\textit{ClaimVer}$,这是一个以人为本的框架,旨在通过生成丰富的注释来满足用户的信息和验证需求,从而减轻认知负担。它旨在提供文本的全面评估,突出每个声明,针对可信的知识图谱(KG)进行验证,提供证据,并对每个声明预测提供简明清晰的解释。最后,我们的框架引入了一个归因分数,增强了其在各种下游任务中的适用性。
-
- 图表
- 解决问题如何提供易于使用、可访问且能执行细粒度证据归因的文本验证方法,以减少人们对社交媒体和AI生成文本中的错误信息和虚假信息的信任度?
- 关键思路通过生成丰富的注释来提供细致的文本验证,突出每个声明并将其与可信的知识图谱(KG)进行验证,提供简洁明了的解释,并引入归因分数以增强其适用性。
- 其它亮点论文介绍了ClaimVer框架,旨在通过生成丰富的注释来减少认知负荷,提供全面的文本评估,引入归因分数以增强其适用性。实验使用了真实世界的数据集和基准测试,ClaimVer框架在文本验证方面比其他方法表现更好。
- 最近的相关研究包括:1. Fact-Checking with Natural Language Inference(自然语言推理事实检查);2. FEVER: A Large-Scale Dataset for Fact Extraction and VERification(大规模事实提取和验证数据集);3. MultiFC: A Real-World Multi-Domain Dataset for Evidence-Based Fact Checking of Claims(用于基于证据的声明事实检查的真实世界多领域数据集)。
NEW
提问交流
提交问题,平台邀请作者,轻松获得权威解答~
向作者提问

提问交流