AiSAQ: All-in-Storage ANNS with Product Quantization for DRAM-free Information Retrieval

2024年04月09日
  • 简介
    在基于近似邻域图的近似最近邻搜索(ANNS)方法中,DiskANN通过使用RAM和存储器,实现了大规模数据集的良好召回速度平衡。尽管它声称通过使用乘积量化(PQ)加载压缩向量来节省内存使用,但其内存使用量与数据集规模成比例增加。本文提出了一种全存储ANNS和乘积量化(AiSAQ)方法,将压缩向量卸载到存储器中。我们的方法即使在十亿级别的数据集中,查询搜索时内存使用量也仅为约10 MB,且性能略有下降。 AiSAQ还减少了查询搜索前的索引加载时间,使索引可以在多个十亿级别的数据集之间切换,并显著增强了检索增强生成(RAG)的灵活性。这种方法适用于所有基于图的ANNS算法,并且将来可以与更高规格的ANNS方法结合使用。
  • 图表
  • 解决问题
    论文旨在提出一种新的方法All-in-Storage ANNS with Product Quantization (AiSAQ),以解决大规模数据集下近似最近邻搜索方法中的内存使用问题。
  • 关键思路
    该方法通过将压缩向量存储在存储器中,可以在不牺牲过多性能的情况下,将内存使用降至10MB左右,同时还可以减少查询前的索引加载时间,提高检索增强生成(RAG)的灵活性。
  • 其它亮点
    论文的实验表明,AiSAQ方法可以应用于所有基于图的ANNS算法,并且可以与更高规格的ANNS方法相结合。该方法在大规模数据集下具有较好的性能,可以有效地解决内存使用问题。此外,论文还提供了开源代码和使用的数据集,为后续的研究提供了便利。
  • 相关研究
    最近在这个领域中,还有一些相关的研究,如ANNS with multiple quantizers for billion-scale datasets, Fast nearest neighbor search with keywords等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论