- 简介在大型语言模型(LLMs)取得显著成就之后,研究人员开始应用上下文学习来进行文本分类任务。然而,这些研究都集中在单语言、单轮分类任务上。本文介绍了LARA(Linguistic-Adaptive Retrieval-Augmented Language Models),旨在提高跨六种语言的多轮分类任务的准确性,适应聊天机器人互动中的众多意图。多轮意图分类由于对话上下文的复杂性和不断变化的特性而具有明显的挑战性。LARA通过将微调的较小模型与检索增强机制相结合,集成到LLMs的架构中,来解决这些问题。这种集成方式允许LARA动态地利用过去的对话和相关意图,从而提高对上下文的理解。此外,我们的自适应检索技术增强了LLMs的跨语言能力,无需进行大量的重新训练和微调。全面的实验表明,与现有方法相比,LARA在多轮意图分类任务中实现了最先进的性能,将平均准确度提高了3.67%。
-
- 图表
- 解决问题LARA (Linguistic-Adaptive Retrieval-Augmented Language Models)试图解决多轮意图分类的问题,该任务由于对话上下文的复杂性和变化性而具有挑战性。
- 关键思路LARA将fine-tuned smaller model与检索增强机制相结合,动态利用过去的对话和相关意图,提高对话上下文的理解。此外,LARA的自适应检索技术还增强了LLMs的跨语言能力。
- 其它亮点论文在六种语言上进行了多轮意图分类任务的全面实验,证明LARA相对于现有方法平均精度提高了3.67%。该研究可为聊天机器人等应用提供更准确的意图分类。
- 与此相关的研究包括使用LLMs进行文本分类任务的先前研究,但这些研究主要集中在单语言、单轮分类任务上。
NEW
提问交流
提交问题,平台邀请作者,轻松获得权威解答~
向作者提问

提问交流