Better Late Than Never: Formulating and Benchmarking Recommendation Editing

2024年06月06日
  • 简介
    推荐系统在根据用户偏好向其推荐物品方面发挥着关键作用。然而,在在线平台上,由于模型容量有限、数据质量差或用户兴趣的变化,这些系统不可避免地会提供不合适的推荐。为了提高用户体验,必须有效地纠正这种不合适的推荐行为。本文提出了一项新颖而重要的任务,称为推荐编辑,其重点是修改已知的不合适推荐行为。具体而言,该任务旨在调整推荐模型,消除已知的不合适物品,而不需要访问训练数据或重新训练模型。我们正式定义了推荐编辑问题,并提出了三个主要目标:严格纠正、协作纠正和集中纠正。为了定量评估每个目标的实现情况,我们开发了三个评估指标。我们使用新的编辑贝叶斯个性化排名损失提供了一个简单而有效的推荐编辑基准。为了展示所提出的方法的有效性,我们建立了一个综合基准,其中包含了来自相关领域的各种方法。代码库可在https://github.com/cycl2018/Recommendation-Editing 上找到。
  • 图表
  • 解决问题
    论文提出了一个新的任务——推荐编辑,旨在解决推荐系统中存在的推荐不准确的问题,而不需要访问训练数据或重新训练模型。
  • 关键思路
    通过使用新的编辑贝叶斯个性化排名损失函数,该论文提出了一种简单而有效的方法来解决推荐编辑问题。该方法可以通过调整推荐模型来消除已知的不合适推荐,同时不需要重新训练模型或访问训练数据。
  • 其它亮点
    论文提出了三个主要目标:严格纠正、协作纠正和集中纠正,并开发了三个评估指标来定量评估每个目标的实现情况。此外,该论文还提出了一个新的基准测试,展示了该方法的有效性,并提供了可用于进一步研究的代码库。
  • 相关研究
    最近的相关研究包括推荐系统的改进和推荐模型的优化。例如,一些研究关注于使用深度学习技术改进推荐系统,如《Deep Learning based Recommender System: A Survey and New Perspectives》。还有一些研究关注于使用增强学习优化推荐模型,如《Deep Reinforcement Learning for List-wise Recommendations》。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论