本篇文章提出了首个大型自动驾驶协同感知数据集, 并提供了多达16个模型的综合Benchmark以及一套完整的代码框架,为协同感知这个新领域提供了基准。
单位:
UCLA Mobility Lab
论文链接:
https://arxiv.org/pdf/2109.07644.pdf
代码链接:
https://github.com/DerrickXuNu/OpenCOOD
项目主页:
https://mobility-lab.seas.ucla.edu/opv2v/
本文提出的OPV2V数据集是首个大型公开的V2V协同感知仿真数据集,它主要由最流行的自动驾驶仿真器CARLA以及协同驾驶仿真框架OpenCDA联合收集,主要特点有:
-
该数据集共有73个不同的场景,每个场景在25s内并且有多辆自动驾驶汽车+趋近真实的交通流出现,在相同的时间戳下包含着多辆自动驾驶汽车的3D点云与相机RGB数据。 -
本数据集囊括了6种道路类型,9个不同的城市,其中8个是CARLA自带的城市,1个是根据洛杉矶Culver City接近百分百复原的数字城市与真实交通流(如图二所示)。 -
数据供含有1.2万张点云,4.8万张RGB图像,23万个标注好的3D检测框。 -
提供了一个包含4种不同点云检测Backbone, 4种不同多智能体信息融合策略,总共16个模型的综合benchmark。
该数据集提供了4种不同点云检测backbone, 4种不同多智能体信息融合的策略。
开源了首个协同感知代码框架 OpenCOOD:
https://github.com/DerrickXuNu/OpenCOOD
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢