DC娱乐网

前Uber自动驾驶负责人特斯拉FSD失控撞墙,暴露监管缺陷

Raffi Krikorian,Mozilla的首席技术官,曾任Uber自动驾驶部门负责人,在使用“全自动驾驶”(Ful

Raffi Krikorian,Mozilla的首席技术官,曾任Uber自动驾驶部门负责人,在使用“全自动驾驶”(Full Self-Driving)模式行驶时,他的特斯拉Model X在住宅街道上撞毁,车内后座的孩子们安然无恙。

在《大西洋》杂志发表的一篇新随笔中,Krikorian详细解析了这起事故,并提出了迄今为止最具洞察力的批评,指出特斯拉“受监督”自动驾驶的根本问题——这位曾亲自打造自动驾驶系统的人士提供的观点尤为值得关注。

事故经过

Krikorian描述了他数百次进行的周日行程——把儿子送到童子军会议,沿着湾区的住宅街道行驶。特斯拉处于FSD模式,系统一直运行良好,直到突然失控。

当Model X进入转弯时,FSD似乎失去了方向感,Krikorian形容车轮出现不规则抖动,车辆毫无预警地减速。他抓住方向盘,却来不及恢复控制,车辆撞上混凝土墙体,车身报废。Krikorian受了轻微脑震荡、颈部僵硬并出现数日头痛,孩子们未受伤。

这一叙述之所以特别引人注目,是因为Krikorian的背景。在Uber高级技术中心,他负责构建自动驾驶车辆,并培训安全驾驶员何时以及如何在系统失效时介入。任职两年期间,Uber的早期试点项目未出现任何伤亡。

尽管拥有这些专业经验,FSD仍然让他出事。

他写道,最初在高速公路上使用FSD,因为车道标线清晰、交通可预测。随后在本地道路上尝试,效果良好,逐渐形成习惯。事故前,他的手仍放在方向盘上,正按照特斯拉要求的“监控而非操控”方式驾驶。但正如他所说,系统已经让他产生了对其的信任。

事故后,保险报告上写的是他的名字,而不是特斯拉的。这正是当前法律框架下所有FSD事故的处理方式特斯拉的系统被归类为L2级别,驾驶员始终承担全部责任。

Krikorian还指出了特斯拉数据实践中的一个令人担忧的问题。车辆会持续记录驾驶员的手部位置、反应时间和眼动数据,特斯拉在事故后常利用这些数据将责任推给驾驶员。而要求获取自身数据的车主往往只能得到零星片段。在佛罗里达州一起价值2.43亿美元的错误死亡判决案中,原告不得不雇佣黑客从事故车辆的芯片中恢复关键证据,因为特斯拉声称数据不存在。

监管问题

Krikorian随笔中最有价值的部分是他对“受监督”自动驾驶根本缺陷的分析,这也是Electrek多次报道的主题。

他的核心论点特斯拉要求人类监督一个本身就设计成让监督显得毫无意义的系统。正如他所言,不可靠的机器会让你保持警觉,完美的机器不需要监督,而几乎完美的机器则会让驾驶员产生信任,以至于停止注意。

研究支持这一观点。心理学家称之为“警觉性下降”,监控几乎完美的系统会让人感到乏味,乏味导致思维漂移,驾驶员在系统交还控制后需要5到8秒才能重新集中注意力,而紧急情况往往比这更快发生。

Krikorian引用了美国公路安全保险协会的一项研究,显示使用自适应巡航仅一个月后,驾驶员看手机的概率增加了六倍以上。特斯拉官网也警告FSD用户不要自满,但系统的平稳表现恰恰在训练这种自满。

他列举了两起著名事故以说明这套数学的不可行性。2018年在山景城的事故中,Tesla在撞向混凝土隔离带前只有六秒时间,驾驶员从未触碰方向盘。2018年亚利桑那州坦佩的Uber事故中,传感器探测到行人时仅有5.6秒警示,安全驾驶员抬头时剩余时间不足一秒。

在Krikorian的案例中,他确实采取了操作,但必须在极短时间内从乘客模式切回驾驶员模式,这违背了数月的条件反射。日志显示他转动了方向盘,却无法展示这一转变的极限计算。

他描述的模式对所有关注特斯拉FSD争议的人来说都很熟悉让驾驶员依赖系统,通过数月的平稳表现削弱其警觉性,然后在出现问题时引用服务条款将责任推给用户。系统运行良好时,特斯拉获赞;出错时,驾驶员背锅。

Krikorian还将特斯拉的做法与竞争对手的一个显著案例进行对比。2025年7月,比亚迪宣布对其自动泊车功能导致的碰撞损失进行全额赔付——无需保险理赔,也不影响驾驶员记录。这虽是有限的示例,却表明制造商与驾驶员共享责任是一种选择,而非不可能。

Electrek观点

我们多年来一直在说特斯拉的FSD越来越好,危险性也随之提升。越平稳,它越会让驾驶员产生虚假的安全感——而当系统不可避免地出错时,驾驶员要重新抓住注意力的难度也随之增大。

Krikorian的叙述之所以令人信服,是因为他并非普通的特斯拉批评者。他曾在Uber构建自动驾驶汽车,培训安全驾驶员的干预协议,理性上了解风险,却仍被系统的平稳所诱导。如果这样层次的专家都会陷入困境,普通特斯拉车主更是难以自保。

“受监督”标签是一种法律盾牌,而非安全解决方案。特斯拉明白人类无法可靠监督一个99%正常运行的系统——研究已证实,Krikorian也直言不讳。然而公司仍继续销售“全自动驾驶”,并在出事时指向细则。

随着NHTSA正在调查80多起涉及288万辆的FSD事件,以及佛罗里达2.43亿美元判决后不断涌现的诉讼,特斯拉必须承担系统失效的责任的压力日益增大。比亚迪已经展示了可行的路径,问题在于特斯拉是否会选择承担责任而非推卸。

#特斯拉# #FSD# #自动驾驶# #Uber# #比亚迪# #Mozilla# #黑客# #芯片# #心理# #手机#