Connect with us

國際

產品名稱誤導 防護設施不足 美報告:Tesla自駕系統致依賴

發佈於

【明報專訊】美國汽車安全監管機構上周五(26日) 結束對Tesla汽車自動駕駛系統(Autopilot)安全問題近3年調查並發表報告,指系統產品名稱有問題,可導致駕駛者過分信任該系統的自動駕駛性能,再加上Tesla不像同行般安裝配合自動駕駛的基本防護措施,導致發生「可預見的誤用和可避免的車禍」。Tesla暫時未有回應。

Autopilot令駕駛者以為「毋須操作」

Tesla各類車款廣泛使用的Autopilot,能使車輛在行駛中的行車線內自動轉向、定速巡航以及和前車保持特定距離。Tesla的市場推廣亦針對此功能,宣稱可以通過先進的巡航控制和自動轉向技術來減輕駕駛者的「工作量」,但實際並非完全自動化。美國國家公路交通安全管理局(NHTSA)缺陷調查辦公室(ODI)上周五發表報告,指Tesla採用名字Autopilot(意即「自動駕駛」,香港Tesla稱自動輔助駕駛),沒有像其他自動化汽車生產商使用「輔助」、「感應」等字眼,令駕駛者對Tesla系統的期望與其實際功能存在「危險安全差距」,可使駕駛者「萌生毋須操作的想法」,「可能使駕駛者們以為自動化功能比實際強,促使他們完全信任自動化」。

報告形容Tesla是「業內異類」(industry outlier),指Tesla讓駕駛者在Autopilot「設計之外」的情况下使用,卻沒相應的「駕駛者參與系統」(driver engagement system),做法不像其他車廠。駕駛者參與系統包括各種提醒駕駛者的提示,例如叫駕駛者留意和把手放在方向盤的提示或提示音,以及可以偵察駕駛者是否留意路面的車廂攝影機。

回收更新後續有20宗同類車禍

NHTSA表示,在其長近3年的調查中,分析了迄2023年8月30日涉及Tesla汽車的956宗意外,指當中467宗是「本可避免」,但因為Tesla「不濟的駕駛者參與系統」不足以駕馭「Autopilot寬鬆的操作性能」而發生。另至少13宗涉及有人死亡及重傷的車禍中,「可預見駕駛者誤用該系統起着明顯作用」。

Tesla去年12月宣布回收2012年以來生產的203萬輛車更新Autopilot,防止錯誤駕駛操作。惟NHTSA表示那之後仍發現有20宗涉及更新軟件的Tesla汽車車禍,「鑑於補救後的撞車事故及對補救後車輛的初步測試結果」令人憂慮,故此上周五同時宣布對上述逾200萬輛召回過的Tesla汽車展開調查,以進一步評估有關措施是否足夠避免意外。

(華爾街日報/今日美國報/路透社/CNBC)