本文是对我们NeurIPS 2021接收的spotlight文章 Prototypical Cross-Attention Networks for Multiple Object Tracking and Segmentation- PCAN的介绍, 同时也分享一下我们对自动驾驶场景中高效快速地进行时序建模和多物体追踪分割的思考。此外,深度学习模型的训练和评估离不开大型数据集的支撑,欢迎大家关注由ETH Zurich & UC Berkeley推出的学术界最大规模的自动驾驶多目标跟踪和分割(MOTS)数据集 - BDD100K Tracking and Segmentation (BDD100K, Overview - EvalAI)。BDD Tracking Segmentation 数据集的规模是KITTI-MOTS的6倍 (3,0817 vs 5,027 training images, 480K vs 26K instance masks), 标注物体数量是KITTI的近20倍,并覆盖白天、夜间、 雨雪等更为丰富真实的自动驾驶场景。

论文链接:https://arxiv.org/pdf/2106.11958.pdf

内容中包含的图片若涉及版权问题,请及时与我们联系删除