时速40公里的无人机,并不稀奇。
但能用这个速度在茂密的森林里穿梭,还是“自己遛自己”的那种,你见过吗?
如此高超的避障飞行走位,可不是人类用手柄操作出来的,全靠无人机的“自我管理意识”。
就算是遇到运动的障碍物,只要比这个无人机速度慢,它就都可以躲得过去。
这款自主避障无人机,是由苏黎世大学与英特尔联合开发。
具体而言,就是以立体深度摄像头作为眼睛,让无人机可以自己看得见障碍物,并规划飞行轨迹。
换上不同性能的相机,它还可以自主完成不同的任务。
比如说躲避迎面砸过来的篮球,像这样:
完成被称作无人机杂技的高难度飞行轨迹也不在话下。
如此灵活的无人机,是怎么被教出来的?
传统的无人机自主避障飞行,一般都是信息处理-制作地图-规划路线的处理方式。
但是由于无人机搭载的芯片性能有限,如果信息处理不及时,无人机就可能会撞上障碍物造成事故。
想要提高信息处理速度,不如把三步合并为一步,利用机器学习完成输入到输出的映射。
具体来说,就是从传感器信息输入直接到飞行轨迹输出,这种处理方式在速度上要大大优于传统方法。
如上表所示,和传统的FastPlanner、Reactive路径规划方法相比,这个算法所需的处理时间更短。虽然Reactive的处理速度也很快,但是它在高速飞行中的表现较差。
那么,无人机如何实现从传感器输入,直接到飞行轨迹的输出映射?
这里就用到了卷积网络来模拟训练。
模拟中的神经网络训练使用了一个“专家控制器”(expert controller),它可以使用3D点云,准确估计出模拟训练中的环境状态与无人机四旋翼状态。
由于模拟训练没有时间限制,“专家控制器”可以更充分地自行训练端到端策略。
控制器还用到了Metropolis-Hastings (M-H) 算法来计算轨迹的分布,获得多模式导航方案。
在这个过程中,端到端策略训练如下图所示:
训练完成的“专家控制器”,将会去教授现实中无人机上的“学生控制器”(student controller)。
“学生控制器”在跟随“专家控制器”飞行时,使用的传感器输入均做了抽象化处理,以此来模拟现实世界中不精确的环境数据。
传感器输入的现实图像数据,会被抽象处理成与模拟环境一致的数据,以此来完成训练轨迹在现实中的映射。
在雪地、脱轨火车、废墟、茂密植被和倒塌的建筑物等场景下,无人机已经实现了自主穿越。
针对运动模糊、传感器噪声和其他感知伪影等情况,无人机同样可以轻松处理。
当然了,目前这款无人机的性能还称不上完美无缺。
模拟系统无法完全照搬到真实世界,现实中总会出现一些模拟不了的意外事件。
比如在低照明及其他影响视觉的环境条件下,相机感知会受到限制。像是雾霾天气、有透明或反光表面存在的情况,无人机便无法准确避障飞行。
专家控制器的训练不包括动态障碍物躲避,所以高速移动的物体仍然会是无人机的一大威胁因素。
针对性能的优化,研究人员指出:
只需要使用事件相机代替传统相机,这些视觉方面的受限因素均可以被克服。
能够更快处理环境信息的传感器,将会是未来高速无人机的配置方向。
同时,相关专家也提到,现实世界也将可能成为训练无人机的场所。
随着传感器功能和计算机能力的提升,无人机在更复杂环境中的飞行速度,很快能超过40公里/小时。
参考链接
https://spectrum.ieee.org/racing-drone
https://spectrum.ieee.org/ai-powered-drone-extreme-acrobatics
https://spectrum.ieee.org/event-camera-helps-drone-dodge-thrown-objects
“