全球首例,驾驶员滥用L2致人死亡,被指控杀人罪

智东西·2022-01-19 15:20
使用L2自动驾驶,需全程关注路况。

违规使用L2自动驾驶系统,涉嫌犯罪! 

美国时间1月18日,当地一名特斯拉Model S驾驶员被指控过失杀人罪,原因是不当使用L2自动驾驶系统致人死亡。 

在一次驾驶中,他开启了特斯拉的Autopilot系统,在遇到红灯(系统不能处理的情况)时没有及时接管车辆导致两车碰撞——被撞车辆两人死亡,特斯拉驾驶员和乘客不同程度受伤。 

美国国家公路交通安全管理局(NHTSA)调查后认为,当时驾驶员的确开启了Autopilot功能,但因为驾驶员需要始终对驾驶负责,因此不管开启与否,都需要对这起事故负责。 

这里需要注意,事故发生时的2019年,特斯拉Autopilot并不能识别道路上的红绿灯并做出反应,因此在过红绿灯路口时,驾驶员显然应该及时接管车辆以避免危险。 

▲事发现场

近年来,L2级自动驾驶系统在量产车中快速普及,全球范围内也不断出现各种事故。虽然各种事故发生的场景与原因各不相同,但最典型的原因就是驾驶员在遇到系统不能工作的场景(比如红绿灯)时没有及时接管,或者根本就没注意到特殊情况(比如低头玩手机),最终导致发生事故。 

此前,舆论关注的焦点多是探讨L2自动驾驶系统是否存在设计缺陷等问题。但同样重要的是,如果系统在设计的范围内正常工作了,但因为人类驾驶员没有合理使用而产生了事故,到底应该如何判定责任呢? 

美国的这起法律案例,显然就为全球的自动驾驶实践提供了一个新的思路。 

外媒《华盛顿邮报》称,该驾驶员因L2自动驾驶中发生严重事故,被指控犯有重罪,在美国还是第一次。 

检察官提起过失杀人指控后,Model S驾驶员不认罪,并且已经得到免费保释。 

01 驾车闯红灯致两死两伤 司机被指控过失杀人

2019年12月29日,一辆黑色特斯拉Model S在洛杉矶郊区发生一起严重事故。当时,27岁的驾驶员Kevin George Aziz Riad(后文称其Riad)开启特斯拉的L2级自动驾驶系统Autopliot,从当地一条高速路驶出,经过一个红灯路口时,该驾驶员未及时接管,车辆闯红灯继续高速行驶。 

▲事发路口卫星图

不幸的是,这辆特斯拉Model S在冲入路口后,撞上了一辆本田思域轿车,导致思域车内的一男一女两名乘员当场死亡,二人分别是Gilberto Alcazar Lopez和Maria Guadalupe Nieves-Lopez。特斯拉Model S内的两名乘员没有生命危险,但也受伤住院。 

2021年10月,加州检察官指控当事司机Riad犯有两项过失杀人罪,但Riad表示不认罪。 

近期,对当事司机Riad指控的案件得以公开,成为美国历史上首位因L2自动驾驶发生严重事故后被指控重罪的驾驶员。 

外媒《华盛顿邮报》称,由于Riad是一名豪华轿车服务司机,因此在案件判决之前,这名司机已经得到免费保释。 

这一事件被公开报道后,Riad的律师没有回应置评请求,洛杉矶县地方检察官办公室拒绝讨论这一案件。根据计划,这一案件的初步听证会将在2月23日举行。 

事故发生后,死者Lopez和Nieves-Lopez两人的家人分别起诉了特斯拉和Model S驾驶员Riad。他们指控称,由于Riad的疏忽,且特斯拉销售有缺陷的车辆,造成突然加速且自动紧急制动没有开启,最终导致严重事故。 

在法庭文件中,Lopez的家人们称:“(这辆车)突然加速到过度、不安全以及无法控制的速度。”并且Nieves-Lopez的家人还表示,Riad危险驾驶,此前已经有多项违规记录,无法驾驭高性能的特斯拉汽车。 

02 指控文件未提及L2 驾驶员恐需负全责

值得注意的是,在这一案件的刑事指控文件中,甚至都没有提到特斯拉的Autopilot。似乎驾驶员是否开启Autopilot,对案件的结果没有任何影响。 

而NHTSA现场调查后认为,事故发生时,当事司机确实开启了Autopilot功能。 

实际这也并不奇怪,因为在驾驶过程中,无论驾驶员是否开启L2级自动驾驶,车辆的驾驶责任都需要驾驶员承担。也就是说,车辆行驶中发生的事故,或是交通违法行为,驾驶员都需要为车辆的行为负责。 

NHTSA表示,美国所有州的法律都要求人类驾驶员对其车辆操作负责。尽管车辆的自动驾驶系统能够一定程度上避免事故发生,但驾驶员必须负责任地使用这一系统。 

针对Riad的过失杀人指控,NHTSA回应称,现在美国没有销售完全自动驾驶车辆,无论汽车是否开启了自动驾驶功能,都需要人类驾驶员始终控制车辆。 

▲事发现场车辆已经面目全非

同时,各大车企的L2级自动驾驶系统,也都有强制驾驶员保持驾驶注意力的措施。例如特斯拉在开启Autopilot功能之后,需要驾驶员每隔一段时间轻转方向盘,或者打灯变道。这样能给车辆一个信号:驾驶员还在驾驶状态中。还有一些车型在驾驶席有一套驾驶员监控系统(DMS),实时监测驾驶员的眼神是否看向前方道路,判断是否要求驾驶员接管…… 

很明显,这起发生在2年多前的事故,简化来看就是驾驶员闯红灯,造成两死两伤的严重后果。至于当事驾驶员Riad及其律师是否会用Autopilot为自己辩护,则是这一案件接下来最大的看点。 

03 Autopilot正接受多家机构调查 已发生多起事故

在美国,因特斯拉Autopilot被驾驶员滥用,已经发生了多起事故,并且一直受到NHTSA、NTSB等部门的调查。但调查结果显示,几乎所有Autopilot事故中,都是驾驶员过度相信Autopilot或者注意力不集中导致。NTSB还在一份报告中说,这是一种“自动驾驶自满”的表现。 

2018年,美国加州发生特斯拉追尾一辆消防车的事故,NTSB认定特斯拉驾驶员过度依赖Autopilot系统,导致没能及时接管,所幸这起事故没有人受伤。 

▲一辆特斯拉撞上消防车

去年五月,同样在美国加州,一名男子开启Autopilot之后,竟然离开驾驶席,坐在了后座上。被警察发现后,该男子被捕。 

根据统计,2016年以来,NHTSA已经针对26起Autopilot相关事故进行了调查,其中至少11人死亡。 

04 结语:自动驾驶法规需要不断完善

自动驾驶作为汽车行业的新兴事物,令人们感到新奇。但同时,自动驾驶领域的法规并不完善,导致自动驾驶行业的某些标准并不统一。 

在未来出行不断走近我们的生活,自动驾驶领域的立法也应不断完善,对驾驶员、车企、供应商的规范也应加速建立。 

本文来自微信公众号“车东西”(ID:chedongxi),作者:James,编辑:晓寒 ,36氪经授权发布。

+1
7

好文章,需要你的鼓励

参与评论
评论千万条,友善第一条
后参与讨论
提交评论0/1000
36氪APP让一部分人先看到未来
36氪
鲸准
氪空间

推送和解读前沿、有料的科技创投资讯

一级市场金融信息和系统服务提供商

聚焦全球优秀创业者,项目融资率接近97%,领跑行业