本田最近与波士顿大学合作,公布了在旧金山湾区采集的104小时**驾驶行为数据集,总体积大约150GB。
虽然驾驶视频的时间不长(伯克利DeepDrive项目类似数据集视频长达1000小时),但本田收集的数据包含了汽车多个维度的数据,可以说是“比我长的没我全面”。
论文地址:
https://arxiv.org/pdf/1811.02307.pdf
数据集内容
在这150GB的数据集中,本田收集了包括GPS、图像、激光雷达、汽车导航、司机驾驶行为等方面的信息,主要通过以下设备获取:
- 3个摄像头:记录影像最终被压缩成1280*720分辨率、30fps;
- 1个水平激光雷达:水平视角360度,垂直视角26.9度;
- 1个汽车动力运动分析器:记录陀螺仪、加速计和GPS信号;
- 1个汽车控制器区域网络(CAN):记录油门角度、刹车压力、轮胎角度、偏航率和速度等信息。
然后本田对驾驶场景做了4层注释方案,开源软件ELAN对视频进行注解:
- 目标方向行为:绿色标注,比如上图中的打左转方向;
- 刺激驱动行为:紫色标注,比如路上看到行人或前车的停车行为;
- 原因:红框在视频中标出导致停车的原因;
- 关注:交通参与者(比如路边行人)对驾驶员行为可能产生的影响。与其他类似数据集的对比。
与其他类似数据集的对比
除了本田以外,厦门大学和上海交大最近也开源过一个数据集DBNet(Driving Behavior),该数据集基于研究者之前发表的一篇被CVPR收录的论文:
http://openaccess.thecvf.com/content_cvpr_2018/papers/Chen_LiDAR-Video_Driving_Dataset_CVPR_2018_paper.pdf
另外还有KITTI、comma.ai、BDD-Nexar等一系列驾驶行为数据集。
从上表中可以看出,本田的数据集虽然视频时长不及伯克利的BDD-Nexar,但其优势在于数据种类全、覆盖各种驾驶场景。
驾驶行为数据集资源
本田数据需要教育用户以学校邮箱发邮件至hdd@honda-ri.com索取,本田在审查后将会把数据链接和密码发送到你的邮箱。
DBNet数据集目前已经在Github上开源,需要安装TensorFlow:
https://github.com/driving-behavior/DBNet
KITTI下载地址:
https://github.com/navoshta/KITTI-Dataset
comma.ai下载地址:
https://github.com/commaai/research
伯克利DeepDrive项目数据集:
http://bdd-data.berkeley.edu
“