Multi-Task Learning with Multi-Task Optimization

2024年03月24日
  • 简介
    这篇论文提出了通过多任务优化来解决多个相关任务的问题。然而,这些任务之间可能存在冲突。在这种情况下,单一解决方案很难优化所有任务,导致性能的权衡。为了在算法一次处理中得到一组优化但分布良好的模型,这篇论文提出了将 Pareto 多任务学习视为多任务优化的一种方法。首先将多任务学习转化为多目标优化问题,然后将其分解为一组无约束标量值子问题。使用一种新颖的多任务梯度下降方法共同解决这些子问题,其独特之处在于在优化过程中在子问题之间迭代传递模型参数。论文提出了一个定理,证明了通过包含这些传递可以实现更快的收敛。我们研究了提出的多任务学习与多任务优化方法,以解决包括图像分类、场景理解和多目标回归在内的各种问题设置。全面的实验证实,该方法显著推进了发现 Pareto 优化模型集合的最新技术水平。值得注意的是,在我们测试的大型图像数据集 NYUv2 上,我们的方法实现的超体积收敛速度比最先进技术中次优的方法快近两倍。
  • 作者讲解
  • 图表
  • 解决问题
    解决问题的问题是多任务学习中的性能权衡问题,如何在一个算法中实现一组优化但分布良好的模型?
  • 关键思路
    将多任务学习视为多目标优化问题,将其分解为一组无约束标量值子问题,并使用新颖的多任务梯度下降方法来共同解决这些子问题,其中迭代传递模型参数是其独特之处。
  • 其它亮点
    该方法在图像分类、场景理解和多目标回归等多个问题设置上进行了实验,证实了其在发现一组 Pareto 优化模型方面显著推进了最新技术。在测试的大型图像数据集 NYUv2 上,该方法实现的超体积收敛速度比最新技术中排名第二的方法快近两倍。
  • 相关研究
    最近的相关研究包括 Multi-Task Learning Using Uncertainty to Weigh Losses for Scene Geometry and Semantics、Multi-Task Learning with Task Routing和Dynamic Multi-Task Learning: A Multi-Task Reinforcement Learning Approach等。
许愿开讲
PDF
原文
点赞 收藏
向作者提问
NEW
分享到Link

提问交流

提交问题,平台邀请作者,轻松获得权威解答~

向作者提问