当下在L2级别辅助驾驶尚不完全成熟的阶段,我们应该时刻记住“人”才是最高决策者。
北京时间6月1日,本应顺利迎来“儿童节”的我们,却被一则来自海峡对岸的交通事故视屏所吸引。而后者能够位于各大社交平台,引发如此激烈讨论的根本原因,或许还是由于肇事主角为目前经常身处舆论漩涡之中的特斯拉Model 3。并且事故发生时,该车辆正处于Autopilot辅助驾驶系统开启状态。
从视频来看,事故发生在早晨 6:36 分的中国台湾1号国道上,一辆白色厢式货车位于内侧道路上发生侧翻,车辆几乎横在道路中间。就在此刻,一辆疾驰而来的白色特斯拉Model 3,径直冲向了侧翻在地的白色货车,最终前者车头直至A柱部分几乎全部侵入货车车厢内。
幸运的是,货车当时所拉的货物应该为类似奶油的软性材质,所以为特斯拉Model 3提供了较大缓冲空间。虽然其车头部分损毁严重,但是驾驶员并未受伤。此外,根据视屏中道路高位摄像头所拍摄的片段来看,Model 3在接近货车之前曾有全力制动的动作,但依然以较高时速撞上了侧翻车辆,甚至让货柜车向后挪动几米。此外,事发前货车司机已经站在道路前方,摇手示意过往车辆注意,但好像并未起到警示作用。
最终,当地警方公布了事故的具体经过,据特斯拉驾驶员黄先生表示,他的Model 3处于Autopilot开启的自动驾驶状态,撞车时的时速约为110公里/小时,而他一看到卡车就全力踩下刹车,但是无论制动时间与制动距离都已不够,以至于撞上卡车车顶。同时,警方在事故发生后也对黄先生进行了酒精检测,结果显示其并不存在酒驾行为。
事已至此,可以确定的是特斯拉“惊魂一撞”的主要原因还是由于其Autopilot辅助驾驶系统存在致命BUG所导致。同时,发生在台湾的这起交通意外,也令我们回忆起几年之前发生在美国本土的两起类似事故。不同的一点在于,这两起事故最终造成的严重后果是其驾驶员因此丧命。
时间轴拉回至2016年5月,美国佛罗里达州一位名叫Joshua Brown的40岁男子驾驶特斯拉Model S在Autopilot辅助驾驶系统开启的状态下,撞向了一辆正在马路中间行驶的白色半挂卡车,Model S的车头直接被“切掉”,驾驶员当场死亡。据了解,这也是特斯拉因为Autopilot所造成的第一起致死事故。
三年之后的2019年3月,依然位于佛罗里达,一辆特斯拉Model 3以110公里/小时的时速径直撞向了一辆正在缓慢横穿马路的白色拖挂卡车。此时,Model 3同样处在自动驾驶模式之下,驾驶员以及Autopilot系统均未作出任何规避动作,最终再次发生车辆被“切头”的惨案,50岁男性驾驶员当场毙命。
而这两起严重的致死事故,再次引发了用户以及行业对于特斯拉自动驾驶系统可靠性的严重怀疑。之后特斯拉与Mobileye 决裂的原因之一,或许也是由于这两起事故带来的严重负面影响。并且迫于外界巨大的舆论压力,特斯拉此后也修改了关于Autopilot的表述,不再强调“自动驾驶”。
其实,仔细观察几年之内接连发生的几起事故不难发现,三者所具有的共性均为,被撞车辆几乎都处于静止或慢速移动状态,被撞车辆车身上均存在大面积白色区域,且事故发生时特斯拉车主均开启了Autopilot辅助驾驶系统。
由此足以证明,特斯拉的这套辅助驾驶系统在面对上述特定情景时,的确存在不可逆转的漏洞,而这背后的原因,需要分两方面来说。首先硬件层面,众所周知目前特斯拉目前搭载的Autopilot辅助驾驶甚至更高级别的FSD系统都依赖同一套视觉解决方案,即全车8个摄像头、12个超声波传感器与一个增强版毫米波雷达。
这套组合从感知层面来讲,本身就有着先天缺陷。而病根则集中在,无论摄像头的数量多少,它们虽然在识别动态物体时能力尚可,但是在面对静态物体,尤其是形状各式各样的静态物体时,就稍显“力不从心”。除摄像头外,毫米波雷达在面对静态物体时的作用也很是有限,因为其本身的硬件特点就是在于测量速度与距离,对于形状复杂的静态障碍物识别能力并不高。
因此,在台湾这起交通事故中,特斯拉Model 3的前部摄像头在面对厢式货车大面积白色区域,加之清晨强烈的阳光反射,几乎很难识别其有效的外部特征。而在摄像头“失责”之后,车辆的毫米波雷达同样无法做到精细化识别,所以其Autopilot系统默认前方道路畅通无阻,并继续以设定时速行驶,最终酿成悲剧。
其实,在此事故发生前,理想汽车CEO李想就曾在某社交平台发表观点,“目前摄像头+毫米波雷达的组合像青蛙的眼睛,对于动态物体判断还好,对于非标准的静态物体几乎无能。视觉在这个层面的进展几乎停滞,哪怕是动态,车辆以外的识别率也低于80%,千万别真当自动驾驶来使用。”
的确,正如李想所说,无论特斯拉也好,国内众多以L2级别辅助驾驶作为产品亮点自居的新势力造车也罢,其系统由于先天硬件层面的缺失,在面对如此情景时或许都无法从容应对。那么究竟应该怎样解决如此“槽点”?
记者在咨询过自动驾驶领域的相关工程师后得知,就硬件层面而言,想要最大限度的避免各类奇葩事故的发生,激光雷达与高精度地图成为了最好的应对方法。但是从特斯拉一直以来的自动驾驶技术路线来看,对于永远以极致成本管控作为前提的前者而言,搭载现阶段成本较高的激光雷达基本不存在可能。并且有相关消息表示,当下特斯拉内部对高精地图的重视度依然不够。
而造成该事故发生的另一原因,则在于特斯拉的算法层面。换言之,虽然特斯拉硬件上的确存在先天缺陷,但是通过其后天算法足够的样本训练,加之自动驾驶芯片算力上的不断进步,便可令当下这套传感器方案的潜力,被进一步激发出来。例如,通过OTA升级当下特斯拉的辅助驾驶系统已经可以识别静止的雪糕筒,即使在此过程中依然会出现“小插曲”。
视线回到本次事故,特斯拉明显没有对这样的特殊场景进行过数据训练,进而无法识别出一部横在道路上的白色厢式货车。而记者在咨询某视觉处理领域工程师的看法时,她认为:“如此极端情况的确是数据采集过程中的盲区,遇到这类型的数据非常少,所以没办法触发应急机制。”
所以后续特斯拉能否通过冗余的算法解决这类问题?答案或许是肯定的。但是前提是其愿意付出足够多的时间、设备以及成本去搭建场地,投入更多的研发力量,采集到类似事故下的具体算法数据,最终通过OTA升级使车辆具有相应的处理能力。
最后,在“声讨”特斯拉之余,必须告知所有人的一点,以当下的法规规定,如果车辆在L2辅助驾驶系统开启阶段发生相应事故,最终责任依然在驾驶者,而意外发生后大多提供辅助驾驶的主机厂是可以“免责”的。
观看视频不难发现,该事故发生的另外原因,还是由于该驾驶员在行驶过程中的分心所导致,如果他能专注驾驶,提前发现前方障碍物,顺带接管车辆并留够制动距离,完全可以避免惨剧的发生。毕竟,当下在L2级别辅助驾驶尚不完全成熟的阶段,我们应该时刻记住“人”才是最高决策者。
转载声明:本文系本网编辑转载,转载目的分享传递更多信息,并不代表本网赞同其观点和对其真实性负责,文章内容仅供参考。如涉及作品内容、版权和其它问题,请在30日内与本网联系,我们将在第一时间删除内容,谢谢合作。