在智能交通展会上我们反复思考特斯拉的自动驾驶技术离完美还远吗
近日,在美国拉斯维加斯的一条街道上,一辆Tesla Model S在自动驾驶模式下与行走的机器人发生碰撞,导致后者无法修复并宣告“死亡”。虽然这次事故没有造成人员伤亡,但它却引发了对自动驾驶技术安全性的深入思考:如果Tesla不能避免与机器人的碰撞,那么该如何确保车辆能够避免与行人发生冲突?
关于Tesla的自动驾驶能力
作为一个专注于电动汽车和自动驾驶技术的公司,Tesla拥有两个显著特点。然而,从SAE International提供的标准来看,目前Tesla的自动驾驶等级仅为L2至L3,这意味着其车辆依然需要大量依赖司机进行观察和分析,并且在实际操作中还远未达到完全无需人类干预的地步。
责任归属:谁应对此次事故?
本次事故中的车型是最新一代的Tesla Model S,该款车装备有先进的视频监控和雷达侦测系统。理论上,这套系统应该能协同工作,以提供更准确、全面的交通环境信息。不过,此事也让人们不禁提问:为什么2018年推出的Autopilot 8.0更新版改变了原有的侦测方式,将摄像头从主导角色转变为辅助角色,而将雷达设定为主要侦测工具?这种变化是否真正提高了安全性?
简而言之,旧版本Autopilot主要通过视频识别来判断前方物体,如果系统处理不过慢或无法辨识,它会继续前进。而新的版本则依赖于雷达数据来支持决策。如果雷达检测不到问题,或许只能算作最后一道防线。一旦出现故障或失效,便难逃悲剧。
正如首席执行官Elon Musk所说:“经过更新后的这一系统,可以使得驾驶更加安全,并且相信可以有效避开可能发生的事故。”尽管他同时强调,“100%”绝对安全是不可能实现的事,而且不断提升这个系统以提高可靠性,是我们唯一可行的手段。