MELT: Mutual Enhancement of Long-Tailed User and Item for Sequential Recommendation

解决问题:

该论文旨在解决顺序推荐系统中的长尾问题,即用户和物品两个方面的长尾问题。现有的研究只关注其中一个方面,而忽略了另一个方面的优化,因此提出了一种新的框架来同时缓解用户和物品两个方面的长尾问题。

关键思路:

该论文提出的框架为MELT,由双边分支组成,分别负责长尾用户和物品,并通过课程学习进行有效的训练,使它们相互增强。MELT是一种模型无关的方法,可以与现有的SRS模型无缝集成。与现有方法相比,MELT能够在不牺牲头部用户和物品性能的情况下缓解用户和物品两个方面的长尾问题。

其他亮点:

该论文在8个数据集上进行了广泛的实验,证明了缓解用户和物品两个方面的长尾问题的好处,而不会牺牲头部用户和物品的性能。MELT是首个在SRS中同时缓解用户和物品两个方面的长尾问题的方法。该论文没有提供开源代码。

关于作者:

主要作者Kibum Kim、Dongmin Hyun、Sukwon Yun和Chanyoung Park来自韩国的KAIST大学。

他们的代表作包括:Kibum Kim在RecSys 2019上发表的“Multi-Task Learning for Long-Tailed User Response Prediction in Recommendation Systems”和“Variational Autoencoders for Collaborative Filtering with Adversarial Training”;Dongmin Hyun在KDD 2020上发表的“Hierarchical User Interest Network for Click-Through Rate Prediction”和“Learning to Represent Users with Self-Supervision for Session-Based Recommendation”;Sukwon Yun在KDD 2020上发表的“Hierarchical User Interest Network for Click-Through Rate Prediction”和“Learning to Represent Users with Self-Supervision for Session-Based Recommendation”;Chanyoung Park在RecSys 2018上发表了“Neural Attentive Session-based Recommendation”。

相关研究:近期的相关研究包括:

  1. "Long-Tail Learning via Logit Adjustment" by Yanyan Shen, Jiarui Qin, Weinan Zhang, Yong Yu, and Xuemin Zhao from Shanghai Jiao Tong University.
  2. "Long-tail Item Recommendation via Personalized Knowledge Graph Augmentation" by Yikun Xian, Chen Gao, Weijie Jiang, and Depeng Jin from Fudan University.
  3. "Learning to Learn from Data: A Meta-Learning Approach for Recommender Systems" by Shuai Zhang, Lina Yao, Aixin Sun, and Salil Kanhere from The University of New South Wales.

论文摘要:

本文介绍了长尾问题在顺序推荐系统中存在的挑战,包括用户和项目两个方面。虽然许多现有研究都解决了顺序推荐系统中的长尾问题,但它们只关注用户或项目方面。然而,我们发现长尾用户和项目问题同时存在,只考虑其中一个会导致另一个表现不佳。因此,本文提出了一种新的顺序推荐系统框架,称为长尾用户和项目的相互增强(MELT),它在用户和项目两个方面共同缓解长尾问题。MELT由双边分支组成,每个分支分别负责长尾用户和项目,并且这些分支被训练以相互增强,通过基于课程学习的训练方法得到有效训练。MELT是模型不可知的,因此可以与现有的顺序推荐系统模型无缝集成。在八个数据集上进行的广泛实验表明,即使不牺牲头部用户和项目的性能,缓解长尾问题对用户和项目都有益处,这是现有方法所没有实现的。据我们所知,MELT是第一个在顺序推荐系统中共同缓解长尾用户和项目问题的工作。

论文地址:https://arxiv.org/pdf/2304.08382.pdf

内容中包含的图片若涉及版权问题,请及时与我们联系删除