2024-09-10【上海交通大学和商汤】RoboSense:用于多传感器低速自动驾驶的大规模数据集和基准

论文链接:https://arxiv.org/pdf/2408.15503

摘要

本文介绍了RoboSense:用于多传感器低速自动驾驶的大规模数据集和基准。在任意视角下进行鲁棒的目标检测和跟踪对于开发自动驾驶技术是具有挑战性但又至关重要的。随着无人驾驶功能车辆需求的不断增长,近场场景理解成为低速自动驾驶领域的一项重要研究课题。由于驾驶条件的复杂性和近距离障碍物的多样性(例如盲区和高度遮挡),近场环境的感知能力仍然不如远场环境的感知能力。为了进一步提高无人驾驶汽车的智能化能力,本文构建了一个基于三种主要传感器(相机、激光雷达和鱼眼)的多模态数据采集平台,其支持灵活的传感器配置,以实现自车的动态视图(无论是全局视图或者局部视图)。同时,本文构建了一个大规模多传感器数据集(称为RoboSense),以促进近场场景理解。RoboSense包含超过133K个同步数据以及360°视图中标注的1.4M个3D边界框和IDs,在7.6K个时间序列上形成216K条轨迹。与先前的KITTI和nuScenes等单辆汽车的数据集相比,它在5米范围内对近场障碍物的标注数量分别是先前的270倍和18倍。此外,本文为近场3D感知和预测度量定义了一种新的匹配标准。基于RoboSense,本文制定了6项主流任务,以促进相关研究的未来发展,并且相应地提供了详细的数据分析和基准。

主要贡献

本文的主要贡献为如下四方面:

1)据我们所知,RoboSense是为无人驾驶车辆的室外低速自动驾驶研究构建的首个数据集,其特别注重于近场场景理解;

2)本文在133K+个多传感器数据的同步帧上标注了1.4M个3D边界框,其中超过30%的目标位于自车周围的近场内。每个目标与一个唯一的ID相关联,从而形成总共216K条轨迹,这些轨迹分布于7.6K个时间序列上,涵盖了6种主要的场景类别;

3)本文构建了若干种传感器布局,包括相机、鱼眼和激光雷达的灵活传感器配置,以及从机器人视图中采集的用于场景理解的多传感器同步数据;

4)本文制定了6项主流任务和基准,以促进近场环境感知和预测的研究发展。

论文图片和表格

总结

为了促进低速场景下的自动驾驶,本文构建了RoboSense,这是现实世界的大规模多传感器数据集,其由标注在133K个同步帧上的1.4M个3D边界框和216K条轨迹构建而成,旨在用于近场障碍物感知和预测模型的专项研究,无论是模块化训练还是联合优化。该数据集由从不同位置人工选择的7.6K个序列组成,涵盖了各种天气条件和交通密度。在未来工作中,将基于RoboSense数据集为端到端自动驾驶应用扩展更多的任务以及相应的基准,并且探索联合优化为模块化训练带来的额外优势。

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注


往期评论