Diffusion-based Contrastive Learning for Sequential Recommendation

2024年05月15日
  • 简介
    自监督对比学习直接从无标签数据中提取内在数据相关性,已被广泛应用于缓解顺序推荐中的数据稀疏问题。现有方法中,大多数通过随机增强创建同一用户序列的不同增强视图,并在嵌入空间中最小化它们之间的距离,以增强用户表示的质量。然而,随机增强通常会破坏用户序列中固有的语义信息和兴趣演化模式,导致生成语义不同的增强视图。推动这些语义多样化的增强序列的相似性可能会使得学习到的用户表示对用户偏好和兴趣演化的变化不敏感,与顺序推荐的核心学习目标相矛盾。为了解决这个问题,我们利用顺序推荐的内在特性,提出了一种使用上下文信息生成更合理的增强正样本的方法。具体而言,我们引入了一种基于上下文感知扩散的顺序推荐对比学习方法。给定一个用户序列,我们的方法选择某些位置,并使用上下文感知扩散模型根据上下文信息生成这些位置的替代项。这些生成的项然后替换相应的原始项,创建一个语义一致的原始序列的增强视图。此外,为了保持表示的连贯性,项嵌入在扩散模型和推荐模型之间共享,并且整个框架以端到端的方式进行训练。在五个基准数据集上的大量实验表明了我们提出的方法的优越性。
  • 图表
  • 解决问题
    解决问题:论文旨在通过使用上下文信息生成更合理的增广样本,以解决在顺序推荐中存在的数据稀疏性问题。
  • 关键思路
    关键思路:论文提出了一种基于上下文感知扩散的对比学习方法,通过选择某些位置并使用上下文感知扩散模型生成这些位置的替代项,从而创建原始序列的语义一致的增广视图。
  • 其它亮点
    其他亮点:论文在五个基准数据集上进行了大量实验,证明了该方法的卓越性能。此外,该方法采用端到端训练,使用共享的项目嵌入来维护表示的一致性。
  • 相关研究
    相关研究:最近的相关研究包括《Self-Supervised Learning for Sequential Recommendation with Mutual Information Maximization》和《Unifying Context Modeling and Diffusion for Personalized Recommendation on Implicit Feedback》。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论