反复提问智能交通何时能像特斯拉的自动驾驶一样撞死彼尔姆
近日,在美国拉斯维加斯的一条街道上,一辆Tesla Model S在自动驾驶模式下与行走的机器人发生碰撞,导致后者被迫宣布“死亡”。尽管没有人员受伤,但这起事故引发了对未来自动驾驶技术安全性的深刻思考:如果Tesla无法避免机器人的碰撞,那么它又如何确保不伤害行人?
从自动驾驶等级来看,Tesla目前处于L2至L3等级,这意味着车辆虽然具备一定的自主导航能力,但仍然主要依赖司机观察周围环境。根据SAE International的标准,Tesla还远未达到完全观察并作出分析的水平。
关于这次事故中的车型——Tesla Model S,其侦测系统分为两种版本:视频监控和雷达侦测。理论上,这两种系统应该相辅相成,为车辆提供更精确的感知。但事实上,在2018年9月份,Tesla推出了自动驾驶8.0更新,这一升级改变了原有的侦测方式,使得雷达成为主要侦测工具,而摄像头则转变为辅助角色。这一变化旨在让汽车电脑能够更快、更准确地判断前方和四周的情况,并应对更加复杂的交通环境。
简而言之,之前的系统通过视频识别来判断前方是何物,如果处理不过时或无法识别,便继续前进。而现在,随着更新后的雷达系统提供数据和反馈,只有当它能有效工作时才能避免事故。如果雷达失效,则悲剧不可避免。
如同首席执行官Elon Musk所言,“经过更新后,我们相信这个系统可以使驾驶更加安全,并且有可能避免潜在的事故。”然而,他也警告说,没有任何技术能够保证绝对安全,并强调100%无忧是不可实现的目标,最多只能提高其可靠性。