克鲁斯在坠机后“召回”机器人出租车,但召回是错误的机制

XNUMX月,在旧金山夜间运营无人驾驶出租车、即将扩大服务的通用汽车“Cruise”部门,在左转途中停车时发生了轻伤事故,还有一辆超速迎面而来的汽车。打在一边。 这很有趣,因为事故中出了什么问题,而且软件修复程序在美国国家公路运输安全局的要求下被称为“召回”。

克鲁斯本周宣布他们将 扩大他们在旧金山的服务,并在凤凰城和奥斯汀开放 在2022的结尾。

这很可能是第一次没有安全驾驶员、驾驶系统出现故障以及第三者(包括乘客和另一辆车上的人)受伤的事故。最近披露了有关该事件的新细节。

关于事故

克鲁斯的车辆确实犯了一个错误,但根据克鲁斯的说法,另一辆车被发现是“最大的错误”,因为它在 40 区域内行驶 25,并且因为它在右转车道上接近,但没有转弯右切换到直通车道并快速通过十字路口。 一些细节可以在 加州 DMV 报告. 没有发出任何引用,但该事件可能仍在调查中。

事件的重建表明 Cruise 车希望左转——许多团队发现了一个挑战著名的“无保护左转”。 一辆普锐斯在一条需要左转的车道上驶近,除了公共汽车和出租车,巡航车认为这辆车确实要右转,而且它可以在普锐斯到达那里之前先转弯。 普锐斯不是出租车,但不知道克鲁斯是否确信这一点或基于此做出的决定。 克鲁斯似乎很可能预测汽车会减速,留给它转弯的时间,然后开始转弯。

普锐斯并没有减速,所以克鲁斯的预测引擎判断如果克鲁斯汽车继续转弯并且快速的普锐斯也转向,普锐斯就会撞上克鲁斯。 所以克鲁斯做了它认为保守的正确的事情,那就是在十字路口硬停车,这将使普锐斯能够做出正确的选择。

普锐斯没有这样做。 事实上,它移回了直通车道并继续进入十字路口。 人们可能会认为它一直打算直行,而现在可能一直试图避开停在十字路口的汽车。 它没有,而是撞到了 Cruise 车辆的后部,导致两辆车都受了轻伤。

Cruise 承认他们的软件在 向 NHTSA 备案,尽管将事故归咎于普锐斯的高速和错误的车道。 Cruise Bolt 可以通过不停止并完成转弯或一开始就没有尝试转弯来防止事故发生。 大多数自动驾驶汽车都很保守,不能通过加速来避免事故,因为这可能会导致其他问题。

克鲁斯拒绝回答有关此事件的大多数问题,超出了他们提交的文件中的内容。 正如文件所说,这辆车处于“无人驾驶自动模式”,巡航证实这意味着车上没有安全司机。 警方报告称,博尔特后座有 3 名乘客(免费乘坐),其中一名受轻伤,曾短暂送往医院。 普锐斯中有两人在现场接受治疗。 由于该乘客尚未向媒体出面,因此可能是克鲁斯向此人提供了不这样做的诱因。 Cruise 不需要乘客提供 NDA。

克鲁斯说这个问题非常罕见,在超过 120,000 次无保护的左转中只发生过一次。 (但看下图是否好。) 3 天后,他们发布了他们认为可以解决问题的软件更新。 他们承认,即使其他道路使用者表现不佳,他们也有责任采取更多措施避免撞车,这是一个很好的理念。 大多数自动驾驶团队都试图在模拟器中与其他不稳定的司机一起创造情境,并试图找到他们所能找到的每一个变化。 这种情况现在肯定存在于克鲁斯的模拟器中,如果他们还没有看到新闻,也存在于其他所有阅读新闻的主要团队的模拟器中。

关于召回

奇怪的是,克鲁斯将这个特定的软件更新描述为“召回”,并向 NHTSA 提交了实际的召回通知。 Cruise 和所有其他运营团队都在不断地进行软件更新以解决问题,当然,解决导致事故的问题是非常罕见的——幸运的是。 他们没有通过召回机制来解决这个问题。 召回机制似乎不合适,原因有很多:

  1. 克鲁斯实际上并没有召回车辆,即。 要求他们返回服务中心修理。 它只是使用了常规的无线软件更新过程。
  2. GM/Cruise 从未出售过这些车辆,它拥有并运营它们,因此不可能真正从客户那里召回它们。
  3. 召回过程涉及到官僚主义,绝对不能用于每次软件更新,即使是修复安全问题的更新。 几乎所有软件更新都修复了一些安全问题或其他问题,而不是实际导致(而不是可能导致)崩溃的问题。

报告这些事故及其解决方案确实是有道理的,而且事实上,这起事故早在召回之前就已报告给加利福尼亚 DMV、警察和 NHTSA。 NHTSA 已要求或接受对其他一些软件更改的召回,它需要修改和简化这一过程。 虽然 NHTSA 有权监管在美国销售的汽车的安全性,但他们对未售出的汽车拥有什么权力却不太清楚。 值得注意的是,就在这次事故的前一天,Cruise 获得了许可——但尚未开始——在其汽车中销售游乐设施,因此对出售游乐设施的汽车进行监管可能是有意义的(尽管这可能更像是如果他们不跨越州界,就说明问题。)

此前,当 Pony.AI 的一辆无人驾驶车辆发生事故时,DMV 取消了他们在该州运营的许可。 在 Pony 的案例中,这是一次单独的车祸,显然是他们车辆的错。 不同的情况可能导致 DMV 采取不同的作为或不作为。

自动驾驶汽车事故不同

这次事故告诉我们一些关于自动驾驶汽车事故的不同模式。 初步反应表明,克鲁斯可能不如预期的成熟。 Waymo 在 2016 年发生了一起事故,这是他们的项目 7 年的一个故障,尽管没有受伤。 从那以后,他们几乎没有什么东西,尽管他们最近才在旧金山这样的地区进行过重型驾驶。 克鲁斯最近遇到了一堆令人尴尬的错误,包括一次不寻常的警察拦截、由于服务器通信错误而导致的汽车群停止、消防车事故、关于在中间进行接送的投诉街,并在为今日秀的记者骑行开始时冻结。 这比我们从 Waymo 和其他公司听到的要多,因此我们希望这些只是初期的痛苦。 每个团队都会有混乱,事实上每个团队都会有崩溃,重要的是它们发生的频率。

克鲁斯在 12 月 300,000 日表示,他们已经在旧金山完成了大约 250,000 英里的无人驾驶出租车服务,没有安全司机,而且他们在 4 月份所做的会更少。 这不是很好,因为人类驾驶员每行驶一百万英里就会发生一次伤害事故。 虽然克鲁斯可能被认为比普锐斯司机的错误少,但这并不像我们想要的那样好。 (之后发生事故,比如说 4 英里并不意味着他们不会在下一个事故之前完成 XNUMX 万英里,但这不是一个好兆头。)另一方面,他们通常已经完成了 XNUMX 万英里(有安全驾驶员) . 由于安全驾驶员在 XNUMX 万英里内干预了任何问题,我们不知道该系统的实际事故率是多少——与最新的系统相比,这也是一个更老、更劣质的系统。相比之下,安全驾驶特斯拉做得好TSLA
报告其客户使用质量非常差的特斯拉 FSD 安全驾驶了 30 万英里,并且没有出现任何严重事故,特别是受伤的报告。

然而,机器人的独特之处已经在上面提到过。 Cruise 在 3 天内解决了这个问题,并且不会再次发生,至少不会这样。 其他公司可能已经把它放在他们的模拟器中,而且也不会发生在他们身上。 公司建立了大量的模拟场景库(甚至在我帮助发起的一个项目中,交易它们。)当他们这样做时,他们有算法来“模糊”场景,这意味着以不同的方式调整所有参数。 他们会以不同的速度与另一辆车一起尝试这个,或者在不同的时间改变车道。 他们会尝试用不同的 Cruise 车来尝试。 他们会尝试让行人在十字路口做不同的事情,以测试在数千种变化中都不会出现问题。

这不像人。 如果一个人发生了这种事故—​​—他们确实发生了——那个人的教训不会教给其他任何人。 充其量随着时间的推移,该市可能会改进车道或速度规则,但这将引发很多事故。 对于机器人犯的任何错误,它们通常只会变得更好。

人们变得更糟。 虽然大多数人都认为年轻司机是最狂野的,并且发生的事故最多,但实际上自杀最多的是 80 岁的司机——该图呈悲剧性的“U”形。 这部分是因为年长的司机更虚弱,但也发现随着他们的能力下降,他们会发生更多的事故。 特别是,奇怪的是,他们在汽车撞到而不是汽车撞到的地方发生了更多的事故,尽管这仍然是他们的错,因为在没有保护的左转中出现了这种情况。 机器人应该擅长判断这些情况的物理特性,但克鲁斯的系统做了太多假设。

这也是预测问题的一个经典例子。 虽然我们在机器人汽车世界中一直在谈论传感器,但感知不是目标,它是实现预测的真正目标的一种手段。 现在一切都在哪里并不重要,重要的是它在不久的将来会在哪里。 克鲁斯既误判了普锐斯的去向,也误判了情况发生变化时的应对措施。 我怀疑克鲁斯的车没有编程来做一些事情,比如向前跑以避免事故,甚至倒车。 我们没有关于 Cruise Bolt 后面是否有汽车的数据,但机器人所做的一件事就是立即向各个方向看,如果后面很清楚,这辆车的行动速度可能比人类快得多,人类会必须检查后视镜并到达变速杆。 电动汽车和加速非常迅速和及时,机器人电动汽车应该非常灵活地避免事故——如果他们敢的话。

我说他们敢不敢,因为大多数公司都非常保守。 他们不想做可能使情况变得更糟的突然动作,即使是 360 度视野。 特别是,许多这种突然的举动在技术上是非法的,他们不想故意违法,尤其是如果它可能出错的话。 例如,行人可以随时从事物背后突然出来。 如果他们跳到你面前,这不是你的错,但如果你在人行道上避免发生事故,那就是另一回事了。 (不,如果汽车必须在两个人之间进行选择,它们永远不会尝试选择击中谁,这是一个常见的神话和烦人的问题, 不是实际发生的事情.)

在这种情况下,机器人应该会变得比人类更好。 他们将更好地预测其他汽车将做的事情的范围。 汽车应该一直在说,“如果这家伙没有按照规则要求转弯,我该怎么办”,并确保可以采取行动——包括转弯加速或倒车。 如果没有可行的行动,并且风险具有足够高的概率,汽车会等待,但理想情况下会有可能的行动。 当其他人以不稳定的方式行事时,有必要容忍一些事故风​​险。 防御性驾驶是好的,但完全防御性的驾驶员会小心地堵塞道路,这并不能解决问题。

在这里阅读/发表评论

资料来源:https://www.forbes.com/sites/bradtempleton/2022/09/14/cruise-recalls-robotaxis-after-crash-but-the-recall-is-the-wrong-mechanism/