蔚来|蔚来是否会陷入“特斯拉式”危机( 二 )


例如,在之前的几起自动驾驶伤亡事故中,特斯拉都一直强调车主没有保持注意力,官方的调查结论也是特斯拉没有责任 。
特斯拉在宣传中总是强调“Autopilot自动驾驶”“FSD完全自动驾驶”,给用户的错觉是特斯拉可以实现自动驾驶,在特斯拉官网上只有一条不起眼的免责声明:“目前可用的(Autopilot)功能需要驾驶员主动进行监控,车辆尚未实现完全自动驾驶 。”
今年3月,面对美国政府的一再质询,特斯拉承认其Autopilot和FSD功能只是驾驶辅助功能 。特斯拉的法务副总裁Eric C. Williams在给政府部门的邮件中承认“Autopilot和FSD功能都不是自动驾驶系统,无论是单独还是从整体来看,两者都不具备自动驾驶的功能,也不能让我们的车辆实现自动驾驶 。”
甚至还有网友扒出了蔚来副总裁亲自为自家辅助驾驶功能站台打Call 。
蔚来|蔚来是否会陷入“特斯拉式”危机
文章图片

2019年8月22日,蔚来汽车副总裁沈斐在微博上发布了一段小视频,表示NIO Pilot(蔚来自动辅助驾驶)越来越上瘾,1点半会议结束,在自动辅助驾驶帮助下,放心地边吃东西边开车 。当时就有网友表示,这是个不好的错误示范,如果车友模仿的话,极易引起交通事故 。
“现阶段,怎么敢把自己的性命交给一个机器呢!”有网友如此评论 。
02、蔚来会成为下一个特斯拉么车企对于“自动驾驶”的过度宣传,以及车主因认知不清晰而导致的伤亡事故,已经发生多起 。
2016年5月,一名特斯拉Model S司机在美国佛罗里达州威利斯顿附近被撞身亡,当时他启动了自动驾驶系统,车辆撞上了一辆拖拉机拖车,电动车车顶被掀开 。
2018年3月,美国加州山景城发生一起致命事故,当时一辆运行自动驾驶的Model X撞上了混凝土护栏 。事后特斯拉调查发现,车辆日志显示,司机收到了需将手放在方向盘上的警告,但司机在事故发生前没有采取任何行动 。
2020年6月1日,一辆特斯拉Model 3行驶在台湾高速公路上时,直接撞向一辆翻倒在公路上的大卡车 。据警方介绍,“司机表示自己在车辆行驶时开启了自动驾驶辅助功能,将车速固定在110公里/小时,行驶途中自己有些分神,没有将全部注意力集中在车辆和道路上 。”
这些悲剧发生的一个共性就是,驾驶员太过信任自动辅助驾驶系统,导致放弃控制汽车控制权、或者不关心路况,在危险来临之时,没有及时接管车辆 。
据相关数据统计,2013年至今年4月,全球范围内特斯拉至少发生了218起事故 。其中超9成的事故原因与特斯拉突然失控有关,如突然加速/减速,刹车失灵、方向盘失灵等 。
蔚来汽车似乎正在重蹈覆辙 。
在此次林文钦事故发生之前,蔚来已经连续出了3次事故 。
半个月前的7月30日,在上海浦东新区一辆蔚来EC6在高速上撞击石墩后起火,随即剧烈燃烧 。从现场视频来看,起火部位主要集中在车头以及驾驶舱前排 。在本次事故中,驾驶员不幸遇难 。这也是蔚来首次被公开的驾驶员身亡事件 。
公开资料显示,事发地点疑似有三处撞击点 。其中,第三处隔离墩的90度转角应该是造成重大事故的撞击点,现场无明显刹车痕迹 。第二处撞击点后有明显轮胎压草坪痕迹 。目测三处撞击点相隔约55-70米 。
今年1月,一辆蔚来ES8在沈海高速追尾一辆停靠在内道的五菱宏光 。据公开报道称,蔚来ES8当时开启了NIO Pilot自动驾驶辅助 。一位司机上传的手机拍摄视频显示,这辆蔚来ES8主驾侧撞向了道路护栏,左侧车轮脱落,车辆的半轴发生了断裂,车头部位损毁严重,所幸事故没有造成人员伤亡 。

推荐阅读