据报道,上周五晚上,一辆特斯拉汽车在宾夕法尼亚州的一条高速公路上撞上了一辆停在同一车道的卡车。事发时,特斯拉的Autopilot(自动驾驶系统)功能被开启。这起事故的发生再次将特斯拉的自动驾驶技术置于舆论的焦点中。

特斯拉自动辅助驾驶前车突然变道(辅助驾驶不是自动驾驶)(1)

根据宾夕法尼亚州警方的说法,当时一辆弗雷特林半挂卡车停在中间车道,并为右侧车道的封闭进行交通管控。特斯拉使用了Autopilot功能后,撞上了卡车的尾部,幸好没有造成人员伤亡。警方指责特斯拉18岁男性司机“粗心驾驶”,但特斯拉方面尚未对此事发表回应。

据报道,自2019年以来,特斯拉使用Autopilot功能的车辆涉及的车祸数量和死亡人数明显增加,共计736起车祸,造成17人死亡。这一数据引发了对特斯拉Autopilot安全性的质疑。

特斯拉将Autopilot描述为“旨在支持和协助驾驶员进行驾驶的SAE 2级驾驶自动化系统”,并强调它并非自动驾驶技术。然而,根据美国国家公路交通安全管理局(NHTSA)的调查数据,很多人将Autopilot视为自动驾驶技术,这导致了悲剧的发生。

特斯拉自动辅助驾驶前车突然变道(辅助驾驶不是自动驾驶)(2)

这起事故再次引发了关于自动驾驶技术的争议。一方面,支持者认为自动驾驶技术有潜力减少交通事故、提高道路安全性,并为驾驶员提供更多的便利。另一方面,批评者认为Autopilot系统存在严重的安全隐患,因为驾驶员可能会过度依赖系统而忽视对道路的注意力。

事实上,自动驾驶技术的发展仍处于初级阶段,尚存在许多技术和伦理挑战。自动驾驶系统需要克服复杂的道路情况、各种天气条件和人类行为的变化。同时,法律法规和保险制度等方面也需要相应的配套措施和规范。

特斯拉自动辅助驾驶前车突然变道(辅助驾驶不是自动驾驶)(3)

总的来说,特斯拉Autopilot再次引发争议,这一事件提醒我们需要重新审视自动驾驶技术的安全性和可行性。技术的发展应与道路安全和社会法律保障相结合,确保在实现自动驾驶的同时不牺牲人们的生命和财产安全。只有在充分考虑各种风险和挑战的情况下,我们才能真正迈向安全、可靠的自动驾驶未来。


,