中国领先的工业平台

返回贤集网 返回Club
贤集网技术ClubAPP下载
0 回复帖,共 0回复 收藏

自动驾驶的下一步,是要让摄像头学会“蒙和猜”?

来源:汽车葫芦圈




在即将到来的4月上海国际车展上,不出意外我们将看见“完全自动驾驶技术”的大爆发;而目前已经确定将亮相上海车展,并支持L3级自动驾驶技术的新车型包括蔚来ET7,长城WEY 摩卡、华为携手极狐打造的αS等。






摩卡




在这些支持L3级自动驾驶的新车型身上,我们看见了一些非常有意思的共通点,那就是都采用了“传感器融合路线”。这几款车型全部配备有激光雷达,也全部具备摄像头+毫米波+超声波雷达三大组合,甚至还可以确定的是,这几款车也都具备高精地图功能。


但是对比之下,目前业界老大的特斯拉依然在采用摄像头视觉算法路径,甚至长城自己目前最主销的车型哈弗H6自动驾驶也是采用的摄像头纯视觉算法;换言之,传感器融合这条路,车界内部也有明确的分歧,它真的不能代表未来明确的自动驾驶发展方向。


导致分歧出现的核心原因,其实就是“传感器融合”并不能完全解决处理信息不足的问题,因为几大传感器虽互有优缺点,但却并不能完全互补:


摄像头的主要问题在于,在夜间、暴雨暴雪、大雾等低能见度工况下感知能力受限,类似于人眼,在极限环境状态下获取信息的能力会大打折扣(虽然已经有量产的感知算法在部分低能见度工况下表现要好于人类的视觉感知能力)。




而毫米波雷达的主要问题是:探测角度小,暴雨和大雾等工况下的衰减凸显(整体而言是综合工况下性能最好的传感器,目前真正研发阶段的毫米波成像雷达可以进一步解决一定的问题)。


至于目前热门的激光雷达,它的主要问题则是不能识别颜色、不能识别图案、也不能识别文字;虽然对于周边环境测距描绘的能力突出,但却因为缺点太致命,所以必须搭配其它传感器互补使用。




当几大传感器放在一起时,眼尖的网友们应该已经发现问题所在了,先不说融合信息处理带来的巨大信息流处理速度问题,你仔细看看上面这几个传感器,真的互补吗?


举个例子,比如都知道下暴雨或者大雾时纯视觉的摄像头可能不能识别路标,难道此时靠激光雷达和毫米波雷达就能识别路标了?






显然,目前所谓的多传感器融合路径,并不能真正意义上为未来L4级完全自动驾驶和L5级无任何限制的完全自动驾驶做任何技术储备,这一技术路线更像是部分车企为了应对L3级特定场景下有限自动驾驶发展浪潮而选取的捷径。


至于未来真正的L4级和L5级技术方案,目前来看纯视觉路线依然占有巨大优势,因为这是最接近“人类”驾驶行为的技术解决方案;同时,此前就曾有业内人士指出,虽然纯视觉技术路径在极端场景下获取信息能力有限,但人类驾驶员此时其实也是一样的“低能”状态,最终限制自动驾驶与人类驾驶之间的隔阂,其实就在于“思维能力”,即有限信息下,如何作出更多合理判断的能力。




也许下一步,自动驾驶的摄像头就需要通过AI训练,来学习人类“蒙和猜”的能力。并且训练AI合理推测、蒙和猜的能力,技术上是完全可行的,此前的“阿尔法狗”已经在围棋领域展示过相关能力。

0 个回复,共 0
发布回复

  • 获取验证码 *