- 简介这篇论文探讨了一项新颖的音乐时代识别任务。之前的研究表明,随着时间跨度的变化,乐器演奏和音量的变化会导致一些模式和规律的差异。这意味着从音频和艺术家信息等音乐特征来感知一首歌的时代是可能的。音乐时代信息可以成为播放列表生成和推荐的重要特征。然而,在许多情况下,一首歌的发行年份可能无法获取。本文将这个任务作为音乐分类问题,并提出了基于监督对比学习的解决方案。开发了一个基于音频的模型来预测音乐时代。对于艺术家信息可用的情况,将基于音频的模型扩展到多模态输入,开发了一个名为MultiModal对比学习的框架来增强训练。在百万歌曲数据集上的实验结果表明,基于音频的模型在3年的容差范围内达到了54%的准确率;将艺术家信息与MMC框架结合使用进行训练,进一步提高了9%的准确率。
- 图表
- 解决问题本论文提出了一种新的音乐时代识别任务,通过音频和艺术家信息来预测歌曲的时代。这个任务可以用于歌单生成和推荐。
- 关键思路论文提出了一种基于监督对比学习的解决方案,开发了一个基于音频的模型来预测时代。如果有艺术家信息可用,可以将音频模型扩展到多模态输入,并开发名为MultiModal Contrastive (MMC) learning的框架来增强训练。
- 其它亮点实验结果表明,使用音频模型可以在3年范围内实现54%的准确率;在训练中结合艺术家信息使用MMC框架可以进一步提高9%的准确率。该论文使用了Million Song Dataset,并开源了代码。
- 在相关研究中,有一些研究关注基于音频的音乐时代识别,如“Music Era Classification Using Convolutional Neural Networks”和“Music Genre Classification Using Convolutional Neural Networks with Spectrogram Images”。还有一些研究探索了基于元数据的音乐时代识别,如“Music Era Classification using Metadata and Lyrics”。
沙发等你来抢
去评论
评论
沙发等你来抢