本篇文章提出了首个大型自动驾驶协同感知数据集, 并提供了多达16个模型的综合Benchmark以及一套完整的代码框架,为协同感知这个新领域提供了基准。 

单位:

UCLA Mobility Lab

论文链接:

https://arxiv.org/pdf/2109.07644.pdf

代码链接:

https://github.com/DerrickXuNu/OpenCOOD

项目主页:

https://mobility-lab.seas.ucla.edu/opv2v/

本文提出的OPV2V数据集是首个大型公开的V2V协同感知仿真数据集,它主要由最流行的自动驾驶仿真器CARLA以及协同驾驶仿真框架OpenCDA联合收集,主要特点有:

  • 该数据集共有73个不同的场景,每个场景在25s内并且有多辆自动驾驶汽车+趋近真实的交通流出现,在相同的时间戳下包含着多辆自动驾驶汽车的3D点云与相机RGB数据。
  • 本数据集囊括了6种道路类型,9个不同的城市,其中8个是CARLA自带的城市,1个是根据洛杉矶Culver City接近百分百复原的数字城市与真实交通流(如图二所示)。
  • 数据供含有1.2万张点云,4.8万张RGB图像,23万个标注好的3D检测框。
  • 提供了一个包含4种不同点云检测Backbone, 4种不同多智能体信息融合策略,总共16个模型的综合benchmark。

该数据集提供了4种不同点云检测backbone, 4种不同多智能体信息融合的策略。

开源了首个协同感知代码框架 OpenCOOD:

https://github.com/DerrickXuNu/OpenCOOD

内容中包含的图片若涉及版权问题,请及时与我们联系删除