Adaptive Ensembles of Fine-Tuned Transformers for LLM-Generated Text Detection

2024年03月20日
  • 简介
    大型语言模型已经达到了类人水平的文本生成能力,这凸显了有效的假文本检测的必要性,以避免社交媒体上的虚假新闻等潜在风险。以往的研究大多在分布数据集上测试单一模型,限制了我们对这些模型在不同类型数据上执行LLM生成文本检测任务的理解。我们通过在分布和非分布数据集上测试五种专门的基于transformer的模型来研究这一点,以更好地评估它们的性能和泛化能力。我们的结果表明,单个基于transformer的分类器在分布数据集上表现良好,但在非分布数据集上的泛化能力有限。为了改进它,我们使用自适应集成算法组合了单个分类器模型,将平均准确率从91.8%提高到了99.2%,在非分布测试集上从62.9%提高到了72.5%。结果表明,自适应集成算法在LLM生成文本检测中具有有效性、良好的泛化能力和巨大的潜力。
  • 图表
  • 解决问题
    本文旨在解决大型语言模型生成的文本检测问题,避免社交媒体中的虚假新闻等潜在风险。通过测试五个专门的基于Transformer的模型,评估它们在不同类型数据上的性能和泛化能力。
  • 关键思路
    通过使用自适应集成算法,将单个分类器模型相结合,提高了检测性能和泛化能力。
  • 其它亮点
    实验结果表明,自适应集成算法在大型语言模型生成的文本检测中具有良好的效果和泛化能力。在内部测试集上,平均准确率从91.8%提高到99.2%,在外部测试集上,平均准确率从62.9%提高到72.5%。
  • 相关研究
    与此相关的研究包括使用不同方法进行文本检测,例如基于规则的方法、机器学习方法和深度学习方法。此外,还有一些研究专注于改进大型语言模型的性能和生成能力。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论