首页 > IT > > 正文

接连发生二起致死事故 新造车头部公司陷入巨大争议中

2021-08-30 14:32:34    来源:搜狐科技

半个月的时间里,蔚来接连发生二起致死事故,让这家市值超过 700 亿美元的新造车头部公司陷入巨大争议当中。

近日,一则讣告称,8 月 12 日下午 2 时,上善若水投资管理公司创始人、意统天下餐饮管理公司创始人、美一好品牌管理公司创始人林文钦,驾驶蔚来 ES8 汽车启用自动驾驶功能(NOP 领航状态)后,在沈海高速涵江段发生交通事故,不幸逝世,终年 31 岁。

媒体报道称,蔚来福建闽南区域负责人张波曾与向此次事故经办民警亲口确认,当时被追尾的高速路政车辆正在进行收雪糕筒作业,车主使用 NOP 领航辅助功能。

事故发生后,蔚来方面回应称:NOP 领航辅助不是自动驾驶,用户应该时刻手握方向盘并目视前方,并称这是一起交通事故,在等交警部门调查,后续有调查结果会向外界同步。

这是中国新造车品牌首次因“自动驾驶”出现车祸致死事件,被网友称为“中国自动驾驶第一案”。NOP 成为大众关注和蔚来回应的焦点,这也再次引发了网友对自动驾驶安全性的担忧。

与此同时,辅助驾驶和自动驾驶这两个概念的混淆,以及一些企业对辅助驾驶“自动化”的虚假夸大宣传,也使得一些用户忽略了背后的风险。

固然,任何新兴技术的迭代与成熟,都需要一定的耐心和宽容,但如果是以人的生命为代价,未免太过沉重。而在目前尚待完善的法律监管之下,谁又该为被夸大的“自动驾驶”买单?

“自动驾驶”事故再发,蔚来要步特斯拉后尘?

特斯拉走过的路,蔚来似乎也要再走一遍。在此次事故前的 7 月 30 日,一辆蔚来 EC6 在上海浦东撞击石墩发生车祸,车辆起火,车主不幸丧生。当时也有疑问,蔚来是否处于 NOP 状态。蔚来方面表示,相关部门还在进一步调查,事故原因需在调查后才能明确。

值得注意的是,在过去八个月的时间里,在沈海高速上,包括此次在内,蔚来已出现三起重大交通事故,其中两起事故确认开启 NIO Pilot 功能。

去年 12 月,在沈海高速福建镜洋段,一辆蔚来 ES8 追尾前方挂车,驾驶员被困车内,后被消防员救出,据称事发地前面没有明显的刹车痕迹。今年 1 月,蔚来 ES8 在开启 NIO Pilot 自动驾驶辅助的情况下,撞上沈海高速的道路护栏,并追尾一辆停靠在内道的五菱宏光,所幸没有人员伤亡。因此,8 月 12 日的事故也是蔚来第一起明确的与 NIO Pilot 相关的致死事故。

蔚来 NIO Pilot 是与蔚来首款量产车 ES8 一同发布的自动辅助驾驶系统,采用 1 个三目前向摄像头、4 个环视摄像头、5 个毫米波雷达以及 12 个超声波传感器,搭载 Mobileye EyeQ4 自动驾驶芯片,支持超过 20 项辅助驾驶功能,支持远程车辆软件升级(FOTA)。

据了解,NIO Pilot 采用选配的方式销售,有精选包和全配包两种,价格分别为 1.5 万元、3.9 万元,后者包含了 NOP(领航辅助)功能。NOP 全称为 Navigate On Pilot,蔚来在去年 10 月推出,并成为全球第二家实现领航辅助功能的汽车品牌,此前仅有特斯拉一家。

特斯拉此前也多次发生过类似事故。2016 年 1 月,一辆开启 Autopilot 自动驾驶模式的特斯拉在京港澳高速河北邯郸段撞上正在作业的道路清扫车,司机不幸身亡。此后,特斯拉在美国也发生撞上消防车、停靠作业的警车等事故。去年 6 月,一辆特斯拉 Model 3 又径直撞上侧翻在路中央的白色货车。这几起事发时,特斯拉车辆都处于 Autopilot 自动驾驶状态。

根据此次蔚来事故信息,此次被追尾的收雪糕筒的路政车是在向前低速行驶。这和特斯拉几起事故有一些共同点,被撞的前车都是不规则车辆、慢速作业或者是接近静态。

据了解,蔚来的 NIO Pilot/NOP 自动驾驶辅助系统使用的是毫米波雷达 + 摄像头的组合方案,其中摄像头是主传感器。在事故发生后,有蔚来工作人员表示,目前 NIO Pilot 系统无法识别雪糕筒,以及停驻在前方的障碍物,比如动物、行人、摩托车等。

林文钦的朋友郑先生向媒体提供的相应的驾驶数据显示,事发当天,事故车共有三段行驶记录,且最新一次驾驶里程为 85 公里,历时 113 分钟。在时长为 113 分钟的行驶过程中,当事人平均速度为 45.1 公里/时、最高速度为 114.6 公里/时。

在 NIO Pilot 方面,当事人里程为 72 公里,占总里程的 84.7%;使用时长为 48 分钟,占总时长的 42.5%。NOP 里程为 68 公里,占总里程 80%;NOP 时长为 44 分钟,占总时长的 38.9%。同时,事发行驶过程中,存在急加速 1 次,并未出现急减速的行为。

媒体报道称,郑先生推测,事故发生的原因可能是林文钦驾驶的 ES8 在开启 NOP 功能时,未能成功识别高速公路上的工程车,导致直接撞上。也有业内人士也表示,若事故车处于 NOP 状态,不排除系统没有检测到前方出现路障的可能。不过,前述数据未得到蔚来官方回应,交警目前也尚未披露此次事故更多进展。

有自动驾驶人士接受采访表示,静态物体的检测是现在技术水平下 L2 级自动驾驶面临的普遍难题,比如形状不规则的工程车很可能在视觉算法中缺失,毫米波雷达对静态物体的检测也有可能因过滤太多而出现漏检,这就可能导致车辆无法识别前方缓行或停止的物体。

蔚来在用户手册中就强调,和其他辅助驾驶功能一样,“领航辅助”是一个舒适性功能,而非防碰撞功能。当本车与前车相对车速大于 50 公里/小时时,如前车静止或缓行,“领航辅助”存在无法刹停的风险。同时,还明确提到,领航辅助无法响应静态障碍物(如路障、三角警示牌等),如前方存在事故或施工区域,请立即接管车辆以控制方向和速度。

辅助驾驶不是自动驾驶,激进宣传应停止

这次事故也引发了外界对辅助驾驶和自动驾驶概念的关注。也有观点也认为,车企将辅助驾驶“自动化”的夸大虚假宣传也该停止了,厂商关于“自动驾驶”宣传的应慎之又慎。

按照国际汽车工程学会 SAE 的等级分类,自动驾驶分为 L0-L5 在内的六个等级。国内的自动驾驶级别是以美国的 SAE 自动驾驶分级为标准,并在此基础上结合中国特殊的道路也形成六个等级,今年已正式开始实施。

根据分级定义,L4 及以上才开始摆脱人为干预,是真正的自动驾驶,车辆控制权由自动驾驶系统完全所有,事故责任归属则相对更加清晰。在 L3 级别的自动驾驶中,车辆的操作和感知均由操作系统自身完成,但驾驶员仍需要随时准备接应自动驾驶系统发出的接管请求,这就导致了车辆行使的控制权存在摇摆,权责不明确。

L1/L2 等级的车辆具备简单的环境感知和执行功能,属于辅助驾驶,主要操作是由驾驶员完成,此时驾驶员的注意义务同驾驶普通汽车相当,侵权责任及刑事风险均由驾驶员承担。特斯拉的 NOA、蔚来的 NOP、小鹏的 NGP,严格意义来讲,都属于 L2 级辅助驾驶。根据国家法规,在 L2 辅助驾驶下,驾驶员不允许长时间双手离开方向盘。在此次事故发生时,车主是否双手脱离方向盘,目前尚不清楚。

不过,在现实中,“L2 + 自动驾驶”“高级辅助驾驶”“解放双方”“人工接管率”等说法出现在不少车企的宣传当中,辅助驾驶的概念被有所弱化。蔚来副总裁沈斐就曾在 2019 年 8 月在高速上让车辆“自动驾驶”,而自己在车内驾驶座上吃饭,亲自为蔚来自动辅助驾驶功能宣传,当时也遭到不少质疑。

马斯克也曾宣称特斯拉已实现完全自动驾驶,而在特斯拉官网上只有一条不起眼的免责声明:“目前可用的(Autopilot)功能需要驾驶员主动进行监控,车辆尚未实现完全自动驾驶。”

这很容易给用户造成误解,此次林文钦的讣告就将蔚来的 NOP 视为自动驾驶功能。特斯拉不少车祸,都是由于用户过于相信系统,而注意力未集中导致。华为自动驾驶产品部前部长苏箐在吐槽特斯拉的自动驾驶时,就用上了“杀人”的字眼。不少观点认为,激进的技术策略有关和失真的宣传成为特斯拉事故频发的重要诱因。

不久前,理想车主将驾驶座椅平躺,双手完全脱离方向盘而在辅助驾驶功能下独立操控汽车。理想汽车对此紧急澄清,理想 ONE 所提供的是辅助驾驶功能不是自动驾驶,要求所有车主按照正确方式使用辅助驾驶系统。

业界已注意到用词可能引起的对消费者的误导。约在 2 个月前,Waymo 公司首席安全官 Mauricio Pena 就撰文称,谷歌停止使用 self-drive,转而使用 autonoumos,主要是为了安全。谷歌研究认为,这两个词的混用会给用户带来直接风险,那些开着具有辅助驾驶系统车辆的用户,正在给予车辆超出其能力的责任,误将辅助驾驶当成自动驾驶。

特斯拉一系列致死事故后,马斯克也不得不改口,称“It ’s autopilot,not autonomous”,他自己也不认可将 Autopilot 译为自动驾驶。今年 3 月,面对美国政府的一再质询,特斯拉承认其 Autopilot 和 FSD 功能只是驾驶辅助功能,无论是单独还是从整体来看,两者都不具备自动驾驶的功能,也不能让特斯拉车辆实现自动驾驶。

目前,无论是特斯拉,还是蔚来、小鹏、理想都在加强自动驾驶投入。蔚来 CEO 李斌在 8 月 12 日财报电话中表示,目前自动驾驶团队规模在 500 人左右,年底达到 800 人规模。理想汽车总裁沈亚楠不久前也提到,年底要建成 600 人的自动驾驶团队,将进一步加大自动驾驶投入。

这方面的监管也需要逐步完善。就在林文钦发生事故当天,工信部在印发的《关于加强智能网联汽车生产企业及产品准入管理的意见》中提到,车企要严格履行告知义务,针对自家的驾驶辅助和自动驾驶功能,明确告知车辆功能、性能限制、驾驶员职责,功能激活和退出条件等等。

同时,《意见》还要求车企在功能上确保司机的驾驶责任,有识别自动驾驶功能失效条件的能力,明确让车主知晓驾驶状态,以及具有事件数据记录系统和自动驾驶数据记录系统,并要求未经审批不得 OTA 升级自动驾驶功能,全方位加强量产车自动驾驶功能的安全性和责任意识。

目前,尚无法确认蔚来此次事故中的责任如何认定。蔚来用户手册提到,领航辅助作为一种驾驶辅助功能,无法应对所有交通、天气和道路状况,且用户始终承担着安全行驶且遵守现行交通法律法规的最终责任。

但是,国家、行业目前还没有出台相关管理鉴定智能汽车自动驾驶事故责任的法规或办法。有律师表示,监控探头、行车记录仪、车辆行驶数据、现场勘验结论等都会成为确定事故责任的证据,商家前期宣传话术也具有一定参考性。

有媒体报道称,林文钦家属委托的北京权佑律师事务所执行主任林丽鸿表示,蔚来技术人员在未经交警同意的情况下,私自接触涉案车辆,并进行相关操作的情况。交警已传唤该技术人员做笔录,如果调查结果为车辆数据被篡改或者销毁,将涉及刑事犯罪,蔚来将对本案件承担全部责任。

就此消息,今日晚间,蔚来发布声明称,公司没有任何删改数据的行为,也没有员工被警方传唤。蔚来表示,为确保高速碰撞后的事故车电池安全,当天 17 点多,蔚来服务人员在事故车停车场进行了断电作业,该作业本身不会造成数据丢失。

但无论结果如何,自动驾驶的发展都不能以人的生命为代价。“蔚来们”也应停止激进的宣传,而用户在体验新技术的过程更应时刻牢记珍爱生命、安全驾驶。

相关热词搜索:

上一篇:AI在新冠检测中暴露短板 并没有起到真正有效作用
下一篇:最后一页

热点话题

热点推荐

头条