此时的蔚来,与五年前的特斯拉时空交叠。
8月12日,在蔚来汽车发布营收增长,减亏的第二季度财报同一日,一位蔚来车主发生交通事故身亡。14日这位车主的讣告中强调了“(车主)驾驶蔚来ES8汽车启用自动驾驶功能(NOP领航状态)后(发生事故)”。如果最后官方确认车祸时车辆完全由NOP驾驶,ES8全责且未发生质量问题的话,则该事故或将成为蔚来首个领航辅助功能致死案例。
无巧不成书。美国国家公路交通安全管理局NHTSA在16日表示,对特斯拉的Autopilot系统启动正式调查。2016年3月,一辆特斯拉Model S在激活Autopilot系统状态下,撞上了一辆白色卡车致车主死亡,被认为是特斯拉首个Autopilot系统致死事故。
时隔五年,智能汽车在销量猛增的同时,仍面临着相同的困境。
NOP只是辅助功能
“蔚来NOP不是自动驾驶,仅为领航辅助功能!”讣告一出,蔚来第一时间向媒体回应道。
8月18日,一份数百位蔚来车主的联合声明更是出现在网络上,表示蔚来官方反复强调过NP/NOP是辅助驾驶功能,且车辆具有车主注意力监测手段,车主也是知晓法规的有证驾驶员。
但500位车主能否代表蔚来超过十万的用户行为?
2016年的致死事故发生时,特斯拉也正好刚刚迈过了累积10万辆的销量门槛。美国国家运输安全委员会(NTSB)报告对该事故的报告显示,车辆在37分钟内以119公里的时速行驶,驾驶员双手在方向盘上仅25秒。事故发生前,车辆发出了多次音频和视觉警告。事故后,特斯拉升级了Autopilot系统,以更好地识别卡车等障碍物。
问题并未就此停止。NHTSA的数据显示,2016年6月以来,其调查了31起设计半自动驾驶辅助系统的事故,25起涉及特斯拉Autopilot,其中10人死亡。有的事故发生时,驾驶员甚至醉酒在后排睡觉。
特斯拉的Autopilot是否存在缺陷仍需要等待NHTSA的调查结果。但关于加强驾驶员注意力检测的问题自2016年事故以来便一直被反复提及。
2020年,NTSB在一份报告中表示,特斯拉“对驾驶员参与度的监控不力”导致了2018年的一起车祸,一辆ModelX径直撞上了高速护栏导致驾驶员死亡。
“是时候让ADAS汽车司机停止假装他们拥有无人驾驶汽车了。”NTSB主席表示。
特斯拉主要依靠方向盘重力感应来检测驾驶者的注意力,蔚来还可以通过“智能视觉系统”来监测驾驶员的注意力。但诸如“配重环”,或是用户戴墨镜、帽子等多种方式都可绕开监测。
手段不足的同时,众多“自动驾驶功能测试”则从侧面影响着公众认知。马斯克曾点赞车主的“无人驾驶演示”视频。蔚来官方APP“NOP”搜索排名第一的文章中,便有驾驶者双手脱离方向盘的镜头。
即使是在中国《汽车驾驶自动化分级》的3级标准下,也只允许驾驶员“可将视线转移至非驾驶相关的活动”。
谁来测试?
事实上,车企对其驾驶辅助系统的信心比车主要弱。无论是特斯拉的FSD还是蔚来NOP,虽然以数万元销售给消费者,但仍是只是测试用的Beta版本。
尽管有仿真训练、高精地图甚至车路协同等多种技术手段,但海量的真实驾驶数据仍被认为是推进自动驾驶迈过“万分之一”场景,真正走向成熟的核心手段。
真实场景下,用户确实可发现系统的不足之处。在14号的讣告发出后,便有用户在蔚来APP上总结NOP存在:变道太频繁甚至取消无效;无法识别不同车道限速导致超速;判断错误导致突然减速;退出时紧急减速等问题。
同时,有用户认为“NOP应该在专用车道专业人员测试,不应交给车主测试,太危险了”。巧合的是,正是在这条用户发言下,有用户表示NOP可帮助其在疲劳时休息,以“坚持到停车”。
事实上,在1、2、3级部分自动驾驶功能下,风险责任归为人类的分级规则基础上,也未有一家车企公开其ADAS系统经过多少万公里无事故的量产标准。
在更早应用自动驾驶的航空领域,有着每百万飞行小时发生0.2次(北美)或0.3次(中国和欧洲)严重事故的适航安全标准。但遗憾的是,在以“自动驾驶”为卖点的智能网联汽车领域,目前尚无明确的安全标准,而测试版系统则交由用户进行测试。
好消息是,在NHTSA启动对特斯拉的调查同期,我国工信部也发布了《加强智能网联汽车生产企业及产品准入管理的意见》,当中提到“压实企业主体责任,加强汽车数据安全、网络安全、软件升级、功能安全和预期功能安全管理,保证产品质量和生产一致性”。
希望未来智能驾驶的测试,留在预期功能安全的试验路上,而不再是用户驾驶的量产车上。