长期以来,特斯拉公司一直宣称其FSD系统能够自主导航交通、管理高速公路行驶,并将其描述为汽车驾驶的未来。然而,与该系统相关的事故和安全事件不断增加,引发了公众对其安全性的担忧。
AMCI Testing在加利福尼亚州进行了超过1,000英里(约1,609公里)的道路测试。研究人员发现,平均每行驶13英里(约21公里),就需要人工接管一次车辆控制。整个测试过程中,发生了至少75次需要人工紧急干预的状况。
测试中发现的危险行为包括闯红灯和在弯道行驶上突然进入对向车道。AMCI Testing总监Guy Mangiamele表示:"FSD系统在某些方面确实表现出色,尤其是对于一个基于全视觉的系统而言。但其行为的不可预测性令人十分担忧,这可能源于特斯拉过度依赖机器学习技术。"
Mangiamele进一步解释道:"系统存在的问题可能是计算能力不足,或在复杂环境中出现预判延迟。更令人不安的是,一些简单的程序设计缺陷,如在距离高速公路出口匝道仅十分之一英里(160米)时才开始变道。(这些问题)严重限制了系统的实用性。"
值得注意的是,FSD系统的缺陷已在多起事故中得到证实。数名北美车主报告称,特斯拉车辆曾多次未能识别铁路交道口、停放的警车等其他障碍物。一些情况下,这些识别失误直接导致了严重的交通事故。
尽管如此,AMCI也承认FSD系统近年来取得了很大的进步。Mangiamele指出:"首次使用FSD的驾驶员往往会对其第一表现感到惊叹。然而,这种初始印象可能导致对FSD系统过度的依赖情绪,使驾驶员失去警惕,在关键时刻无法做出及时反映。"
专家强调,即使是经验丰富的测试驾驶员也需要高度集中注意力,以应对FSD系统可能出现的突发失误。对于普通用户来说,在使用FSD系统时保持警惕更为重要。
目前,特斯拉公司尚未公开FSD系统在实际使用中需要人工干预的具体频率。此次独立测试结果无疑将引发业界和公众对该系统安全性和可靠性的进一步讨论。