Analyzing Persuasive Strategies in Meme Texts: A Fusion of Language Models with Paraphrase Enrichment

Computer Science & Information Technology (CS & IT), ISSN : 2231 - 5403, Volume 14, Number 11, June 2024
2024年07月01日
  • 简介
    本文描述了我们在模因文本中层次化多标签检测说服技巧的方法。我们的模型是作为最近SemEval任务的一部分开发的,基于对个别语言模型(BERT、XLM-RoBERTa和mBERT)进行微调,并利用基于平均值的集成模型以及通过ChatGPT生成复述来进行数据集增强。研究的范围包括通过创新的训练技术和数据增强策略增强模型性能。本文所解决的问题是在模因文本中有效识别和分类多种说服技巧,这是由于此类内容的多样性和复杂性而变得复杂的任务。本文的目标是通过改进模型训练方法和检查平衡与不平衡的训练数据集的影响来提高检测准确性。结果和讨论中的新颖之处在于发现使用复述进行训练可以提高模型性能,但平衡的训练集比较大的不平衡训练集更有优势。此外,分析揭示了从不同分布中无差别地引入复述可能会引入大量噪音的潜在风险。使用SemEval 2024数据的结果证实了这些见解,证明了所提出方法的模型效果得到了改善。
  • 图表
  • 解决问题
    本文旨在提高模型训练方法和数据增强策略,解决在meme文本中检测多个说服技巧的问题。由于此类内容的多样性和复杂性,这是一个具有挑战性的任务。
  • 关键思路
    本文的关键思路是通过使用BERT、XLM-RoBERTa和mBERT等语言模型的微调以及通过ChatGPT生成的释义生成进行数据增强,并利用基于平均值的集成模型来提高模型性能。
  • 其它亮点
    本文的亮点在于发现使用释义生成进行训练可以提高模型性能,但平衡的训练集比不平衡的训练集更有优势。此外,分析揭示了从不同分布的释义中不加区分地引入释义可能会引入大量噪声。实验使用SemEval 2024数据集进行验证,并展示了所提出方法的有效性。
  • 相关研究
    在这个领域中,最近的相关研究包括:'Multi-Label Hierarchical Text Classification with Semantic Relation Reasoning','Multi-Label Text Classification with BERT'等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论