Reinforcement Tuning for Detecting Stances and Debunking Rumors Jointly with Large Language Models

2024年06月04日
  • 简介
    学习多任务模型以共同检测立场和验证谣言是具有挑战性的,因为需要在帖子级别上训练立场的数据和在声明级别上训练谣言真实性的数据,这些数据难以获取。为了解决这个问题,我们利用大型语言模型(LLMs)作为联合立场检测(SD)和谣言验证(RV)任务的基础注释器,称为JSDRV。我们引入了一种新颖的强化调整框架来增强基于LLM的SD和RV组件的联合预测能力。具体而言,我们设计了一个策略来选择两个级别的LLM注释数据,采用混合奖励机制来选择高质量的标签,以有效地在两个任务上进行LLM微调。结果表明,JSDRV提高了LLM在联合任务中的能力,不仅优于最先进的方法,而且可以推广到非LLM作为任务模型的情况。
  • 作者讲解
  • 图表
  • 解决问题
    该论文试图解决如何在缺乏足够训练数据的情况下,联合检测言论立场和验证谣言的问题。这是一个新的问题。
  • 关键思路
    论文的关键思路是利用大型语言模型(LLMs)作为联合立场检测(SD)和谣言验证(RV)任务的基础注释器,并引入一种新的强化调节框架来提高LLM在联合任务中的预测能力。
  • 其它亮点
    论文使用了一种混合奖励机制来选择高质量的标签,以有效地在两个任务上微调LLM,并且证明了JSDRV不仅优于最先进的方法,而且还能推广到非LLMs作为任务模型。论文还提供了实验细节和开源代码。
  • 相关研究
    最近在这个领域中,还有一些相关研究,如《A Survey on Stance Detection: Recent Advances and Challenges》和《Fake News Detection on Social Media: A Data Mining Perspective》。
许愿开讲
PDF
原文
点赞 收藏
向作者提问
NEW
分享到Link

提问交流

提交问题,平台邀请作者,轻松获得权威解答~

向作者提问