百度Apollo首次披露纯视觉L4无人车方案:10摄像头,对标Mobileye

AI资讯1年前 (2023)发布 AI工具箱
289 0 0

巨头新动作来了,行业风向可能要变。

百度Apollo,中国自动驾驶的最大玩家,刚刚在AI视觉顶会CVPR上,披露了一套纯视觉城市道路闭环解决方案—百度Apollo Lite.

百度将此方案与英特尔旗下Mobileye相类比,认为在前期技术积淀和半年路测迭代后,Apollo Lite的性能表现与Mobileye在同一维度。

按照业内对Mobileye纯视觉高级辅助驾驶的王者地位评价,百度言外之意,再明确不过。

Apollo Lite

此次亮相CVPR 2019,由百度Apollo技术委员会主席王亮进行新进展披露。

Apollo Lite,一套城市道路L4级视觉感知解决方案,能够支持对10路摄像头、200帧/秒数据量的并行处理,单视觉链路最高丢帧率能够控制在5‰以下,实现全方位360°实时环境感知,前向障碍物的稳定检测视距达到240米。

王亮还说,经过前期的技术研发投入和半年的路测迭代,依靠这套10相机的感知系统,百度无人车已经可以在城市道路上实现不依赖高线数旋转式激光雷达的端到端闭环自动驾驶。

2019年上半年,Apollo Lite已经在北京稻香湖等多地多路段落地测试。在路测过程中,测试车辆数目、累计测试里程和车辆在城市道路上的闭环自动驾驶表现优异。

Apollo方面“优异”的对标参照是Mobileye,全球最大的ADAS(高级辅助驾驶技术)供应商,2016年被英特尔以153亿美元收入麾下,并整合成为英特尔自动驾驶部门。

Mobileye此前最知名的方案是特斯拉,后来特斯拉自研AutoPilot,依然沿袭了纯视觉方案。

Mobileye最新的纯视觉自动驾驶方案,除了自研芯片EyeQ4处理器外,主要依靠12路摄像头。

Apollo首次纯视觉

值得注意的是,这也是百度Apollo在L4自动驾驶领域的首次纯视觉方案披露。

百度Apollo方面也谈到了原因:

相比旋转式激光雷达感知方案,视觉感知方案价格低且便于获得。

这套低成本近车规级环视感知方案也能够降级支持ADAS辅助驾驶应用,创造更多有价值的应用场景,将ADAS产品的能力提升到一个新的高度,为企业、开发者们提供了一个低价、优质的自动驾驶解决方案。

不过,百度Apollo也强调了纯视觉方案的挑战所在:

摄像头是相对成熟的传感器,除具备轻巧低成本和符合车规的优势外,高分辨率高帧率(成像频率)的成像技术发展趋势意味着图像内蕴含的环境信息更丰富,同时视频数据也和人眼感知的真实世界最为相似,但和三维点云数据相比,二维图像中的信息更难挖掘,需要设计更强大的算法、大量数据的积累和更长期的研发投入。

百度Apollo技术委员会主席说,现今很多传感器融合的方案设计较为复杂,技术人员往往从快速解决问题的角度出发设计算法,这个过程中难免避重就轻的利用异构数据各自的优势进行缺陷互补从而绕过困难的问题。

基于这种思路设计的多传感器融合方案虽然能够在短期规避单传感器方案难以解决的问题。

长远看,数据和策略间深度耦合的设计不利于为环境感知系统提供真正意义上的冗余(true redundancy)。

传感器融合意味着多套能够独立支撑全自动驾驶的感知系统强强联手,独立工作相互校验,最大概率的保证感知结果的准确性和完备性。

王亮强调,百度下决心投入资源研发纯视觉感知解决方案并不意味着放弃现有基于激光雷达的技术路线,而是在技术实践过程中充分意识到无人驾驶系统true redundancy的必要性,决定通过压强环视视觉技术来夯实多传感器融合感知框架。

在传统激光雷达为主,视觉为辅的传统融合策略中,视觉感知自身的问题和缺陷在雷达感知的掩盖下暴露不够充分。

所以现在通过Apollo Lite打磨迭代的纯视觉技术,正在持续反哺百度坚持的多传感器融合解决方案,提升无人驾驶系统的鲁棒性和安全性。

百度Apollo方面也表态:

始终坚持多传感器融合的技术路线。在L4级自动驾驶传感器选型上,激光雷达和摄像头不是排它的的也不是单纯的从属和互补关系。从安全性考虑,二者具备相同的重要性和不可替代性,缺一不可。

— 完 —

诚挚招聘

量子位正在招募编辑/记者,工作地点在北京中关村。期待有才气、有热情的同学加入我们!相关细节,请在量子位公众号(QbitAI)对话界面,回复“招聘”两个字。

量子位 QbitAI · 头条号签约作者

վ’ᴗ’ ի 追踪AI技术和产品新动态

© 版权声明

相关文章

暂无评论

暂无评论...