【论文标题】The Monte Carlo Transformer: a stochastic self-attention model for sequence prediction 【作者团队】Alice Martin, Charles Ollion, Florian Strub, Sylvain Le Corff, Olivier Pietquin 【发表时间】2020/12/15 【论文链接】https://arxiv.org/pdf/2007.08620.pdf 【推荐理由】本文出自法国巴黎综合理工,针对神经网络通常仅输出单点估计值,缺乏不确定性度量来评估预测准确性问题,搭建了一种序列蒙特卡洛(SMC)算法,通过近似给定观测值状态的后验分布,估计对数似然的梯度,进而自然捕获观测值的分布,得到预测分布结果,取代单点估计。
作者团队在两个综合数据集和五个现实世界时间序列预测任务上评估SMC Transformer模型。 结果显示,SMC成功地捕获了合成设置中的已知观察模型,并且在实际设置中测量经典的预测间隔指标时,性能优于所有并发基线。下图为SMC算法处理序列数据图示。

内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢