Before Generation, Align it! A Novel and Effective Strategy for Mitigating Hallucinations in Text-to-SQL Generation

2024年05月24日
  • 简介
    大型语言模型(LLMs)通过上下文学习(ICL)的驱动,显著提高了文本到SQL的性能。先前的方法通常采用两阶段推理框架,即1)模式链接和2)逻辑合成,使得框架不仅有效,而且可解释。尽管有了这些进展,LLMs普遍存在泛化的固有缺陷,往往会导致幻觉,从而限制了LLMs的全部潜力。在这项工作中,我们首先识别和分类文本到SQL中每个阶段常见的幻觉类型。然后,我们引入了一种新的策略,任务对齐(TA),旨在减轻每个阶段的幻觉。TA鼓励LLMs利用类似任务的经验,而不是从头开始执行任务。这可以帮助LLMs减轻泛化的负担,从而有效地减轻幻觉。我们进一步提出了基于该策略的文本到SQL框架TA-SQL。实验结果和全面分析证明了我们框架的有效性和鲁棒性。具体而言,它相对于BIRD dev在GPT-4基线上提高了21.23%的性能,并在四个主流复杂文本到SQL基准测试中的六个模型上产生了显着改进。
  • 图表
  • 解决问题
    解决文本转SQL中的幻觉问题,提高模型性能和鲁棒性。
  • 关键思路
    引入任务对齐(Task Alignment)策略,通过利用相似任务的经验来减轻模型的泛化负担,从而有效减轻幻觉。
  • 其它亮点
    实验结果表明,该策略可将GPT-4的性能提高21.23%,并在六个模型和四个主流复杂文本转SQL基准测试中均取得显著改进。
  • 相关研究
    相关研究包括使用预训练语言模型的文本转SQL任务,以及在预测过程中使用外部知识库的方法,如IRNet和SQLova等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论