高速误刹车,智能驾驶是否过度被夸大和营销?

我觉得,现如今的自动驾驶表现,其安全性的确很让人担心
近期,一辆理想L9又因在高速公路行驶时智驾系统急刹导致追尾。理想汽车回应,事故原因是理想智驾系统将高处广告牌上的小货车图片误识别为实车,“的确是系统误识别,后续会改进软件系统”。这已经不是理想汽车系统第一次误识别,此前一台理想L7也曾将苏炳添广告牌识别为真人,紧急刹车导致车辆追尾。
图片
这里最重要的问题就是:长尾问题
现在,自动驾驶的底层架构和大部分技术问题已经被解决,但由于现实道路场景复杂,即使现有技术已经实现90%以上场景的自动驾驶,剩下10%的长尾场景始终无法覆盖——长尾场景。数据无法闭环,成了制约自动驾驶发展的最大难题。因此采集最后10%“极端工况”数据,获得数据闭环能力也就成为自动驾驶公司成败的关键点之一。
10%长尾问题的处理能力,是自动驾驶决策系统最大的安全问题!
图片
很明显,理想L9的这次碰撞,也是这样长尾场景之一。现如今的解决方案也是遇到一个,解决一个。但是,这个长尾问题的解决,真的就是要靠车主的“亲身试验”么?
显然,这样做,的确对车主来讲不太负责!
图片
影子模式
我知道的是,特斯拉给出了一种方案:影子模式。
所谓的影子模式,就是在具备自动驾驶能力的汽车中,在人工驾驶的时候,后台运行一套影子系统,这套影子系统一直在模拟计算,将得出的计算结果和人工驾驶结果想对比,如果“不一致”,那么就会上传云端当前的自动驾驶数据,以训练自动驾驶算法,通过千万辆运行在路上的特斯拉汽车,逐步去完善其自动驾驶算法,解决“长尾问题”。
显然,在这个理想L9的场景中,通过影子模式可以发现,并提前OTA软件,避免这样的问题的。
其次,理想L9的这次事故,显示了其缺少“纵深”的探测能力
现在自动驾驶的环境感知主要靠各种传感器,其中视觉系统占大头(权重大)。
激光雷达,可探知纵深,视觉,更多在平面。
虽然理想L9也拥有激光雷达的配置,显然用的不好,没能探测出广告牌车辆和现实车辆的区别。
图片
这就是自动驾驶的另外一个问题,车企都宣传自己配备了多少硬件,几个激光雷达,但是配备了你用了么?用得好么?这个对于消费者来说,的确很难。
最后,我想说,AEB自动刹停的交通事故,是不是应该车企承担后果呢?这个法律问题,在自动驾驶车辆渗透比更高的情况下,值得探讨。