- 简介在口语中,为了提高效率,话语通常被塑造成不完整或模糊的形式。这可能会导致对同一输入的不同解释,基于对上下文的不同假设。为了在这种情况下确保可靠的用户模型交互,模型必须灵活处理用户查询中固有的歧义。然而,即使是建立在最新的大型语言模型(LLMs)之上的对话代理,处理模糊输入也面临挑战,主要是由于以下两个障碍:(1)LLMs不是直接训练处理过于模糊的输入;(2)输入中的歧义程度可能根据LLMs的内在知识而异,这很难调查。为了解决这些问题,本文提出了一种方法,以使LLMs明确处理模糊输入。具体来说,我们引入了一个代理任务,引导LLMs利用其内在知识来自我消歧给定的输入。我们将消歧过程中的信息增益量化为模型感知其输入的模糊程度的度量标准。这个度量标准作为选择从模型角度被认为是模糊的样本的线索,然后用于对齐。来自几个问答数据集的实验结果表明,使用我们的方法微调的LLMs能够处理模糊输入,同时在任务中仍然表现出色。
-
- 图表
- 解决问题解决问题:论文提出了一种方法,旨在解决大型语言模型在处理模糊输入时遇到的困难。
- 关键思路关键思路:论文提出了一种代理任务来引导大型语言模型自我消歧模糊输入,以提高其处理模糊输入的能力。
- 其它亮点其他亮点:论文使用了多个问答数据集进行实验,并表明经过该方法微调的大型语言模型可以在处理模糊输入时表现出色。
- 相关研究:最近的相关研究包括 "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding" 和 "RoBERTa: A Robustly Optimized BERT Pretraining Approach"。
NEW
提问交流
提交问题,平台邀请作者,轻松获得权威解答~
向作者提问

提问交流