- 简介大型语言模型(LLM)在包括摘要在内的广泛自然语言处理任务中展现出了令人印象深刻的性能。LLM本质上产生的是抽象摘要,通过LLM实现提取式摘要的任务仍然大多未被探索。为了弥补这一差距,在这项工作中,我们提出了一种新的框架LaMSUM,通过利用投票算法,通过LLM生成大型用户生成的文本的提取式摘要。我们对三个流行的开源LLM(Llama 3,Mixtral和Gemini)进行评估,结果表明LaMSUM优于最先进的提取式摘要方法。我们进一步尝试提供LLM生成的输出摘要背后的原理。总的来说,这是利用LLM实现大型用户生成文本的提取式摘要的早期尝试之一,很可能会在社区中引起更多的兴趣。
- 图表
- 解决问题本论文旨在探讨利用大型语言模型(LLMs)实现对大规模用户生成文本的抽取式摘要,填补了当前领域中对于LLMs生成抽取式摘要的空白。
- 关键思路LaMSUM框架通过利用投票算法,实现了对LLMs生成的抽取式摘要的提取,相较于当前领域的抽取式摘要方法,LaMSUM具有更好的性能。
- 其它亮点论文对三个开源LLMs进行了评估,并证明了LaMSUM的优越性能。此外,论文还试图解释LLMs生成的抽取式摘要的原因。实验使用了哪些数据集和开源代码也进行了详细介绍。本研究是利用LLMs实现抽取式摘要的早期尝试,为领域内的进一步研究提供了启示。
- 最近在这个领域中,还有一些相关研究。例如,题为“PreSumm: Efficient Abstractive Summarization with Counter-fitted Guiding Metrics”的论文也探索了利用LLMs实现摘要的问题。
沙发等你来抢
去评论
评论
沙发等你来抢