Context Aware Query Rewriting for Text Rankers using LLM

解决问题:该论文旨在解决文档排名中的词汇不匹配问题,通过使用大型语言模型(LLMs)进行查询重写来提高查询建模的效果。同时,该论文还试图解决使用LLMs进行查询重写时的概念漂移和查询处理中的大量推理成本等问题。

关键思路:该论文采用了一种称为上下文感知查询重写(CAR)的简单而有效的方法,利用LLMs的优势来进行查询理解。具体而言,作者通过上下文感知提示LLMs来重写模糊的训练查询,其中仅使用相关文档作为上下文。与现有方法不同的是,作者仅在训练阶段使用基于LLMs的查询重写。最终,排名器在训练期间使用重写后的查询进行微调,而不是使用原始查询。在实验中,作者发现使用重写后的查询微调排名器相比使用原始查询可以显著提高排名器的性能,其中在段落排名任务上的提高可达33%,在文档排名任务上的提高可达28%。

其他亮点:该论文的实验结果表明,使用LLMs进行查询重写可以有效地提高文档排名的性能。此外,该论文还提出了一种新颖的上下文感知查询重写方法,该方法可以用于其他文本排名任务中。然而,该论文并未开源代码,因此需要进一步的研究才能将该方法应用于其他任务中。

相关研究:近期的相关研究包括:“BERT for Joint Intent Classification and Slot Filling”,作者为Chen et al.,机构为华为;“Exploiting BERT for End-to-End Aspect-based Sentiment Analysis”,作者为Xu et al.,机构为南京大学等。这些研究都探索了如何使用大型语言模型来提高文本处理任务的性能。

论文摘要:本文介绍了一种针对文档排名中词汇不匹配问题的已有方法家族——查询重写。查询重写通常在查询处理期间进行,以更好地对下游排名器进行查询建模。随着大型语言模型(LLM)的出现,人们开始探索使用生成方法生成伪文档来解决这种固有的词汇差距。本文分析了LLMs在文本排名任务中改进查询重写的效用。我们发现,使用LLMs作为查询重写器有两个固有的限制——仅使用查询作为提示时会出现概念漂移,而在查询处理期间需要大量推理。我们采用了一种简单但出奇地有效的方法,称为上下文感知查询重写(CAR),以利用LLMs的查询理解优势。首先,我们通过上下文感知的LLM提示重写模糊的训练查询,其中我们仅使用相关文档作为上下文。与现有方法不同,我们仅在训练阶段使用基于LLM的查询重写。最终,在训练期间,我们使用重写的查询而不是原始查询来微调排名器。在我们广泛的实验中,我们发现,使用重写查询微调排名器的性能相对于使用原始查询的基准性能提高了高达33%的段落排名任务和高达28%的文档排名任务。

内容中包含的图片若涉及版权问题,请及时与我们联系删除