今天上午,上面这三则视频穿越海峡,以极快速度传遍了大陆社交网络和车主社群。
视频说的是同一件事:一辆 Model 3 在高速公路行驶时,一头撞上了侧翻在地的一辆白色货柜车。Model 3 车头甚至插入了货柜中。
这一事件迅速让人联想起特斯拉 2016、2019 的两宗 Autopilot 致命车祸——同样是白色货车,同样是无法识别,同样仿佛不带减速的一头撞上…。
人们问:Model 3 的 Autopilot 方案是不是依然存在着致命的 BUG?我们又怎么正确认识 Autopiolt…。仅仅去指责用户的滥用?
我们采访了三位自动驾驶领域内的资深工程师,有知名大厂的总监,也有自动驾驶公司的硬件负责人,得到了一些有趣的回答,譬如,
这是工程问题还是商业问题?
特斯拉在高精地图、惯性传感器、精准定位上的投入不足?
在漏报和误报之间,宁愿漏报不愿误报是对还是错?
站在路边挥手的货车司机,能不能成为一个警示标识?
以下,Enjoy!
Model 3 再现 AP 惊魂一撞
从视频来看,这惊魂一撞发生在今天早晨六点多,于台湾嘉义的高速公路上。仅仅三四个小时后,现场视频就穿越海峡,传遍了大陆社交网络、车主社群。
从画面来看,一辆白色 Model 3 一头撞上了一辆侧翻在地的白色货柜车。高处的监控视频还显示,Model 3 在临近货柜车之前曾有制动动作,但不知为何依然以很高速度撞上了侧翻车辆,甚至让货柜车向后挪动了几米。
此外,货柜车司机事发前已经站在了前方,摇手示意过往车辆注意,但好似没有起到警示作用。
根据当地媒体报道,这起事故并没有人员伤亡。Model 3 车头有所毁坏,但好在货柜车装的是早餐食材,因此 Model 3 虽然撞破了货车车顶,但被「奶油沙拉」所缓冲,事故并没有想像中惨烈。
报道还称称当地警方进行了酒精测试,酒测值是 0.00 mg/l。司机黄某称当时车辆开启了 Autopilot 辅助驾驶系统,时速约 110 公里每小时,发现前方有车时刹了车但为时已晚。
视频的广泛传播,说明了特斯拉的热度。
网上评论大多认为车辆当时处于 Autopiolt 状态,「感觉(司机)在玩手机没看路。」、「这一定睡了,因为这侦测到大货车司机时有刹了一下,之后刹车放了继续撞,不过好险有前面刹那一下,不然应该更惨。」
当然,也有特吹言论:「对特斯拉 AP 来说,那不是一台卡车,因为卡车不长那样子,它可能已经融入了远方的天际。从另一个角度来看,这车不会白白牺牲,每次意外的累积就是特斯拉的进步方式。」
是概率问题就一定有概率发生
上面那段话我们其实挺熟悉,两岸一家亲果然没错。当然,也会有反讽。譬如「自动避让高潮尬吹,一头撞上集体沉默」之类的。
只是,「每次意外的累积」到底是不是「特斯拉的进步方式」?从这宗事故来看,起码值得商榷。
很多人都会将今天发生的事故与 2016、2019 年两宗特斯拉 Autopilot 致命车祸联想在一起。
2016 年 5 月,佛罗里达州一位名叫 Joshua Brown 的 40 岁男子开着 Model S ,在 Autopilot 状态下撞到了一辆正在过马路中的白色拖挂卡车,Model S 直接切头,驾驶员死亡。这是特斯拉 Autopilot 的第一起致死事故。
三年之后的 2019 年 3 月,同样在佛罗里达,一辆 Model 3 以 110 公里时速侧面撞击了一辆正在穿过马路的白色拖挂卡车。Model 3 同样处于自动驾驶模式,司机以及 Autopilot 系统未做任何回避动作,车辆同样被「切头」,50 岁男性司机当场死亡。
这两宗事故当时都引起轩然大波,甚至引发了特斯拉与 Mobileye 的决裂(原因之一),特斯拉此后也修改了关于「Autopilot」的表述,不再强调「自动驾驶」。
从 Autopilot 的应用来看,我们认可特斯拉官方的解释——AP 的出现,事实上减少了道路上的交通事故。但我们并不认为,特斯拉已经解决了「白色货柜车」的 BUG 问题。
广州自动驾驶公司文远知行在去年曾经发表过一篇文章,认为特斯拉在过去几年进行了 1 次重大传感器方案升级,3 次计算平台升级以及数次重大软件版本升级,但还是无法解决这一已知致死(足够严重)的Bug。(未包括 FSD 的升级)
从传感器角度来看,他们认为特斯拉的传感器配置只有前向广角近距离摄像头可以有效「看到」正在横过马路的白色拖挂卡车,但「基于单目摄像头获取深度也受到拖挂车白色涂装影响无法有效提取特征点,从而无法进行有效的深度恢复(Structure from Motion, SFM)。」
换句话说,它虽然能看到但无法辨别出广告牌、天际线还是横过马路的白色货柜车。加上广角摄像头只能看到约 50m 处的车辆,在高时速下(30米/s)下,留给系统的反应时间只有短短 2 秒,远远满足不了刹车所需的时间与距离。
而今天发生在台湾的类似事故,用资深自动驾驶工程师黄觉(化名)的话来说,只要存在概率问题就一会有概率事故发生,或早或晚。特斯拉目前并没有解决这个「长尾」问题。
高精地图、精准定位的缺失?
特斯拉没有解决,是解决不了,还是「还没解决?」其他车厂又是否有能力解决?
某大厂资深工程师刘新光(化名)说,目前全球量产车其实都会遇到这个坑。另一家大厂的自动驾驶总监张卫(化名)也说,CameraRadar 这时候是不好使的,「静止异型车」都是坑。
不过,黄觉觉得奥迪装在 A6、A7 等车型上的 L3 级自动驾驶系统「能够稳定检测出这个场景」,因为奥迪的系统使用了激光雷达,但「代价很大,光激光雷达硬件成本大概 300、400 美金,还不包括软件开放的成本。」
从传感器「能看到」的角度,视觉传感器对大面积白色物体非常不敏感。
毫米波雷达则很难对静态物体进行检测,「所有静态物体,譬如大桥接缝、路上钉子、可乐管、非常缓慢移动的物体等,对 Radar 而言都很容易形成噪点,否则没法开。」
激光雷达由于检测回波能量、白色面发射率高,因而对大面积白色物体容易识别。
当然,不是说摄像头、毫米波雷达不能做到,但相对于激光雷达而且的确是比较难。尤其是如何在快速移动中做到「高可信度」。
黄觉说,从技术角度看要精准识别路上的障碍物有两种方式。
一种是单机识别,譬如通过激光雷达的 3D 信息,发现前方斜率出现变化,认为有障碍物于是采取了动作。「但这个比较笨」,而且需要算法的特别训练;
另一种则是基于高清地图(譬如 Mobiley 的 REM),甚至雷达特征地图(博世目前在推进)进行比对。「我看过这个地图,但之前道路上没有这个物体。」于是采取了行动。
「一个比较内部的信息是,特斯拉内部对高精地图的重视不够。」黄觉告诉我们,特斯拉的 IMU 惯性传感器是不足的,这会导致行驶时很难做到非常精准的车道级定位。
工程问题还是商业问题
必须要说明,黄觉毫无疑问是「激光雷达」派。而众所周知,特斯拉是视觉路线,认为人眼能解决的问题,摄像头同样也能解决。
而在刘新光看来,虽然「侧翻的白色货柜车」或者「异型静态车辆」对于任何厂家而言都是「坑」,但视觉路线是能解决这个 Corner Case(极端情况或者小概率事件) 的,前提是算法能识别。
刘新光认为关键问题是数据训练,现在的特斯拉明显没有对这样的特殊场景进行过数据训练,进而无法识别出有一个大货车横在那里。
「就好像毫米波能识别出前方有个东西,但不确定是什么,然后去问摄像头大哥:这是什么?结果摄像头说,我也没看过呀。」
他认为只要有技术方案,特斯拉肯定可以通过 OTA 解决这个问题。目前看没有解决,只是说明这一问题的优先级没有在前面。特斯拉完全能通过数据闭环,对这样一个 Corner case 做出应对。
但是,为什么特斯拉没有这样做?
刘新光说这可能不是个工程问题,而是一个商业问题。
他告诉我们,这种极端情况即使特斯拉有那么车在路上跑,但依然是小概率的。它必须购买、采集更多的数据,然后在台架上跑、在算法上跑,此后再搭建场地做适应性训练。
「这个代价有多高?你想想,时间、设备,搭建场地,投入的研发力量,就为了解决这 0.005% 的极端情况。」
而相较于这样昂贵的工程解决方法,车厂其实还有零成本的方法,那就是「交付时反复强调不是全自动驾驶。」
至于现在大家对这宗事故关注度这么高,一个原因是「这个就叫做过分宣传带来的反噬。」
的确如此?
车主滥用?
就 L2 系统而言,台湾事故,包括 2016 年、2019 年的致死事故,都可以说车主滥用了 Autopiolt 系统。
但黄觉有异议。
他认为目前厂家在 L2 系统中太过于考虑用户体验。虽然逻辑上没错,但在实际操作中,会让「人在最困难的地方,做最艰难的决定」。
譬如台湾事故,车主在发现后已经刹不住了。「舒适性做好了,但留给用户的选择空间也不多。」
黄觉说为了用户体验、为了舒适,「不急着刹车,将问题往后推,一旦超过了系统判定能力,留给司机的决策时间就会很短。场景越复杂,越是剥夺了司机提早做决策的权限。」
目前的自动驾驶研发已经脱离了「安全、不安全」的二元思考,「大家都在跟概率做斗争。」黄觉说,在 L4 级的自动驾驶研发中,他们要求的是不能漏报,这与 L2 的策略完全不同。
最后说一下「挥手」。
在台湾事故中,能很清楚看到侧翻货车的司机在前方挥手。刘新光说,高速公路原本就不应该有人,因此在 NOA 等类似功能设计时,可以将「路人挥手」这样的场景纳入决策依据。
一旦传感器捕捉到,就可以判定前方出现了紧急状况,即使不采取行动,也应该警示驾驶者注意。而他们一定会把这样的场景写入算法中。
「自动驾驶,本质上是数据驱动。更多的数据,覆盖更多的极端情况,优化出更好的算法。」
责任编辑:pj
-
毫米波
+关注
关注
21文章
1914浏览量
64696 -
自动驾驶
+关注
关注
783文章
13684浏览量
166147
发布评论请先 登录
相关推荐
评论