Efficient Retrieval with Learned Similarities

Bailu Ding ,
Jiaqi Zhai
190
热度
2024年07月22日
  • 简介
    检索在推荐系统、搜索和自然语言处理中扮演着基础性的角色,通过在大语料库中高效地查找相关项以响应查询。由于最大内积搜索(MIPS)实现了基于点积的高效检索,因此点积已广泛用作检索任务中的相似度函数。然而,最先进的检索算法已经转向学习相似度。这些算法的形式各不相同,可以使用多个嵌入来表示查询,可以部署复杂的神经网络,可以使用波束搜索直接从查询中解码项目 ID,并可以将多种方法结合成混合解决方案。不幸的是,在这些最先进的设置中,我们缺乏高效的检索解决方案。我们的工作研究了使用学习相似度函数的近似最近邻搜索技术。我们首先证明混合逻辑斯蒂回归(MoL)是一种通用的逼近器,可以表示所有学习的相似度函数。接下来,我们提出了使用MoL检索近似前K个结果的技术,并提供了紧密的界限。最后,我们将我们的技术与现有方法进行比较,结果显示MoL在推荐检索任务上设置了新的最先进结果,我们使用学习相似度的近似前K个检索优于基线,延迟高达两个数量级,同时实现了准确算法的> .99召回率。
  • 图表
  • 解决问题
    论文旨在解决使用学习相似度函数进行近似最近邻搜索的问题。这是一个新问题,因为现有的最近邻搜索算法主要是基于点积相似度函数。
  • 关键思路
    论文提出了使用Mixture-of-Logits(MoL)作为学习相似度函数的通用近似器,并提出了一些技术来使用MoL检索近似的前K个结果。相比于现有的算法,这种方法在推荐检索任务中取得了新的最佳结果,并且在近似最近邻搜索方面的性能也有所提高。
  • 其它亮点
    论文的实验结果表明,使用MoL进行近似最近邻搜索的方法比现有的算法具有更高的召回率和更低的延迟,并且在推荐检索任务中表现出色。此外,论文还开源了代码和使用的数据集。
  • 相关研究
    近期的相关研究包括使用神经网络进行近似最近邻搜索的方法,如ANNS、DenseANN和HNSW等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论