- 简介虚假信息破坏了公众对科学和民主的信任,尤其是在社交媒体上,不准确的信息可以迅速传播。专家和普通人已经证明通过手动识别和解释不准确的信息可以有效纠正虚假信息。然而,这种方法很难扩展,特别是随着大型语言模型(LLMs)等技术使虚假信息更容易产生。LLMs还具有多种功能,可以加速纠正虚假信息,但由于缺乏最新信息、倾向于产生看似可信但虚假的内容和参考资料,以及在处理多模式信息方面存在局限性,因此它们很难应对。为了解决这些问题,我们提出了MUSE,这是一个具有最新信息访问和可信度评估功能的LLM。通过检索上下文证据和驳斥,MUSE可以提供准确可信的解释和参考资料。它还可以描述视觉信息并进行多模式搜索以纠正多模式虚假信息。我们招募事实核查和新闻专家来评估对13个维度的真实社交媒体帖子的纠正,从解释的准确性到参考资料的相关性。结果表明,MUSE能够在社交媒体上出现后迅速纠正虚假信息;总体上,MUSE的表现比GPT-4高37%,甚至比普通人的高质量纠正高29%。这项工作强调了LLMs有效和高效地应对现实世界虚假信息的潜力。
-
- 图表
- 解决问题论文旨在解决社交媒体上的谣言和误导信息问题,尤其是在大语言模型的帮助下,这些信息更容易产生和传播。同时,当前手动纠正谣言的方法难以扩展。
- 关键思路论文提出了一种名为MUSE的大语言模型,该模型通过访问最新信息和可信度评估来纠正误导信息。MUSE可以检索上下文证据和驳斥信息,提供准确和可信的解释和参考文献。它还可以描述视觉信息,并进行多模式搜索以纠正多模式误导信息。
- 其它亮点论文招募事实检查和新闻专家评估纠正了13个维度的真实社交媒体帖子,结果表明MUSE可以在社交媒体上及时纠正误导信息。总体而言,MUSE的性能比GPT-4高出37%,比普通人纠正的高质量信息高出29%。
- 在相关研究方面,最近的一些研究包括:1.《基于知识图谱的谣言检测方法研究》2.《基于深度学习的社交媒体谣言检测方法综述》3.《社交媒体谣言检测的研究综述》
NEW
提问交流
提交问题,平台邀请作者,轻松获得权威解答~
向作者提问

提问交流