歐洲新車安全評鑒協會技術總監理查德·施拉姆近日在接受澳新地區媒體采訪時,對特斯拉全自動駕駛(FSD)技術提出尖銳批評。他指出,該系統在現行測試標準下無法通過安全認證,其核心問題在于人機責任劃分存在嚴重缺陷。"這套系統讓駕駛員產生車輛能自主行駛的錯覺,卻未建立有效的監督機制,這種矛盾設計本身就是安全隱患。"施拉姆強調。
根據歐洲安全機構的測試經驗,特斯拉Model 3和Model Y搭載的FSD系統雖具備城市道路通行、紅綠燈識別等復雜功能,但其技術架構存在根本性矛盾。施拉姆特別指出:"'監督版'這個命名極具誤導性,它暗示車輛承擔行車責任,但實際責任主體仍是駕駛員。"這種命名方式與系統實際功能的不匹配,被視為技術推廣中的重大倫理問題。
歐洲市場嚴格的準入標準成為該技術落地的主要障礙。由于歐盟成員國交通規則存在差異,道路標識系統復雜多樣,自動駕駛技術需要滿足更高的安全冗余要求。施拉姆透露,協會已建立專門的高級駕駛輔助系統評級體系,特斯拉等車企的產品均在此框架下接受評估。測試結果顯示,現有輔助駕駛系統普遍存在兩大缺陷:命名誤導消費者和駕駛員監控系統失效。
"當系統檢測到駕駛員注意力分散時,必須采取強制干預措施。"施拉姆解釋道,"目前多數車企將責任轉嫁給用戶,這種做法在技術倫理上站不住腳。"協會最新測試數據顯示,超過60%的輔助駕駛事故與駕駛員過度依賴系統有關,而現有監控系統對疲勞狀態的識別準確率不足40%。
針對駕駛員監控技術,歐洲安全機構正在推動雙重測試標準升級。2026年實施的測評規則新增系統穩定性測試,重點考察攝像頭追蹤精度和生物特征識別能力。正在制定的2029年新規將引入智能判斷機制,要求監控系統能區分駕駛員主動觀察環境與真正分心兩種狀態,避免過度干預影響駕駛體驗。
據內部文件顯示,新測試框架包含37項具體指標,其中12項涉及倫理道德評估。例如,系統需在0.3秒內準確判斷駕駛員視線方向,對戴墨鏡、留胡須等特殊情況的識別準確率要求達到95%以上。這些標準正在與全球主要車企進行閉門磋商,預計將引發行業技術路線重大調整。
施拉姆特別澄清,批評并非針對特定企業:"整個行業都存在技術夸大宣傳問題,目前沒有任何系統能實現真正無人駕駛。"他透露,協會正在起草《輔助駕駛責任白皮書》,明確要求車企在營銷材料中禁用"自動""自主"等詞匯,所有功能描述必須通過第三方機構認證。












