M3oE: Multi-Domain Multi-Task Mixture-of Experts Recommendation Framework

2024年04月29日
  • 简介
    多领域推荐和多任务推荐已经证明了它们在利用不同领域和目标的共同信息进行全面用户建模方面的有效性。然而,实际推荐通常面临多个领域和任务同时存在的情况,这不能很好地通过当前的方法解决。为此,我们介绍了M3oE,一种自适应的多领域多任务专家混合推荐框架。M3oE整合了多个领域的信息,将知识映射到不同的领域和任务中,并优化多个目标。我们利用三个专家混合模块分别学习用户偏好的共同、领域方面和任务方面,以分离的方式解决多个领域和任务之间的复杂依赖关系。此外,我们设计了一个二级融合机制,以精确控制跨不同领域和任务的特征提取和融合。该框架的适应性通过应用AutoML技术进一步增强,这允许动态结构优化。据我们所知,我们的M3oE是第一个自适应解决多领域多任务推荐问题的方法。针对不同的基线模型,在两个基准数据集上进行的大量实验表明M3oE具有优越的性能。实现代码可用以确保可重现性。
  • 解决问题
    M3oE论文试图解决多领域多任务推荐的问题。当前的方法不能很好地解决同时面对多个领域和任务的情况。
  • 关键思路
    M3oE是一个自适应的多领域多任务Mixture-of-Experts推荐框架。它整合了多个领域的信息,映射了不同领域和任务之间的知识,并优化了多个目标。
  • 其它亮点
    M3oE使用三个Mixture-of-Experts模块分别学习用户的共同、领域方面和任务方面的偏好,以解决多个领域和任务之间的复杂依赖关系。此外,M3oE还设计了一个两级融合机制,以精确控制跨不同领域和任务的特征提取和融合。该框架的可适应性通过应用AutoML技术进一步增强,这允许动态结构优化。实验结果表明,M3oE具有优秀的性能。
  • 相关研究
    最近的相关研究包括Multi-Task Learning with Multi-View Attention for Recommendation和Multi-Task Learning for Cold-Start Recommendation。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论