本文是SIGIR 2020的最佳短文。在对话场景中,用户提出的查询问题是人机交互的重要方式,然而由于用户在对话中做出的原始查询缺少上下文语境,现有的信息检索系统无法直接进行有效搜索。本论文提出了一种小样本学习方法,能够有效提升对话式检索中的查询重写效果。具体地,分别采取基于规则和自我监督学习的方式生成弱监督数据,用于微调预训练模型GPT-2增强对于用户问题的理解和改写能力。该模型在对话式检索任务TREC Conversational Assistance Track 2019中,与当前最好的问题改写模型相比准确率提高了12%。在无标注语料训练场景中,该模型准确率仍与TREC CAsT 2019最好的模型效果相当。这些实验表明,所提出的方法能够有效捕捉对话上下文信息,从而帮助提升对话式检索的效果。
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢