- 简介大型语言模型(LLM)已经成为机器学习和深度学习领域的一个关键时刻。最近,人们研究了它在查询规划方面的能力,包括单模态和多模态查询。然而,目前还没有关于LLM查询优化能力的研究。作为一个重要的步骤,它对查询计划的执行性能有着显著的影响,因此这样的分析和尝试不应该被忽视。另外,现有的查询优化器通常是基于规则或基于规则+基于成本的,即它们依赖于手动创建的规则来完成查询计划的重写/转换。考虑到现代优化器包含数百到数千个规则,设计一个类似的多模态查询优化器是非常耗时的,因为我们必须尽可能地枚举多模态优化规则,这个问题至今尚未得到很好的解决。在本文中,我们研究了LLM的查询优化能力,并使用LLM设计了LaPuda,一种新颖的基于LLM和策略的多模态查询优化器。LaPuda只需要几个抽象的策略来指导LLM进行优化,而不需要枚举具体和详细的规则,这样可以节省大量的时间和人力。此外,为了防止LLM犯错或产生负面优化,我们借鉴了梯度下降的思想,提出了一种引导成本下降(GCD)算法来执行优化,以保证优化方向的正确性。在我们的评估中,我们的方法在大多数情况下都优于基线。例如,我们方法生成的优化计划比基线快1~3倍。
-
- 图表
- 解决问题该论文旨在探讨大型语言模型(LLM)在查询优化方面的能力,提出了一种基于LLM和策略的多模态查询优化器LaPuda,旨在减少手动创建规则的时间和人力成本。
- 关键思路LaPuda使用LLM作为优化器,只需几个抽象策略来指导优化,而不是枚举具体的规则。同时,为了避免错误优化,提出了一种引导成本下降(GCD)算法来保持优化的正确方向。
- 其它亮点论文在实验中使用了多个数据集来评估LaPuda的性能,并展示了其在大多数情况下优于基线的结果。值得注意的是,LaPuda生成的优化计划比基线的执行速度快1~3倍。
- 最近的研究主要集中在单模态和多模态查询规划方面,但很少有关于LLM的查询优化能力的研究。现有的查询优化器通常是基于规则或基于规则+成本的,而LaPuda则使用LLM和策略来进行优化。
NEW
提问交流
提交问题,平台邀请作者,轻松获得权威解答~
向作者提问

提问交流