特斯拉:全自動駕駛(FSD)系統性能退化檢測機制之失效分析
這份技術報告分析了特斯拉全自動駕駛(FSD)系統在性能退化檢測方面的關鍵失效,強調了當軟體無法識別自身性能下降時可能產生的安全風險。
背景
這份報告源自美國國家公路交通安全管理局(NHTSA)轄下的缺陷調查辦公室(ODI),針對特斯拉「全自動駕駛(FSD)」系統在環境能見度下降時的偵測失效問題展開調查。調查指出,在多起事故中,FSD 系統未能及時偵測到道路環境的惡化,或是在攝影機視線受阻時未能提供足夠警示,導致車輛在能見度不佳的情況下發生碰撞。
社群觀點
Hacker News 的討論主要圍繞在特斯拉堅持「純視覺(Vision-only)」方案的技術缺陷,以及該公司在處理安全數據上的透明度問題。許多留言者對 ODI 的調查結果感到憂心,認為 FSD 系統在偵測環境降級(Degradation Detection)方面的表現極其糟糕。有觀點指出,對於一套宣稱具備自動駕駛能力的系統而言,如果無法在信心度不足或感測器受限時主動要求人類接手,這在工程設計上是嚴重的失職。更有網友分享身邊友人的慘痛經驗,提到特斯拉的視覺系統甚至會將白色卡車上的反射誤判為可通行空間,這種基礎層級的識別錯誤令人難以接受。
針對硬體選擇的爭議是討論的另一大焦點。部分評論者尖銳地批評特斯拉移除光達(LIDAR)的決策,認為這純粹是為了降低成本而犧牲安全。他們主張,光達在掃描路面平整度與障礙物偵測上具有物理性的優勢,能有效彌補視覺系統在惡劣天氣或光影變化下的不足。相比之下,純視覺系統過度依賴對已知障礙物(如車尾燈)的模式識別,一旦遇到非典型路況或能見度下降,系統便容易陷入盲區。這種「純視覺」的設計被形容為一種羞恥的工程妥協,甚至被戲稱為容易受到「卡通式陷阱」誤導的脆弱設計。
此外,社群對於特斯拉作為一家「軟體公司」的專業形象也提出了質疑。ODI 的報告中提到,特斯拉內部的數據標註限制導致其無法統一識別與分析 FSD 開啟時的事故,這可能導致事故率被低估。留言者對此感到不可思議,認為一家以數據驅動自居的公司,竟然在關鍵事故的追蹤與分析上表現得如此模糊且不透明。這種數據管理的缺失,加上系統在惡劣條件下連「前方有車」這種基本任務都難以達成,讓外界對特斯拉自動駕駛技術的成熟度產生高度懷疑。
最後,討論也延伸到了馬斯克領導下的其他工程專案。有留言者將特斯拉的設計哲學與 SpaceX 的登月計畫聯繫起來,擔心這種「最好的零件就是沒有零件」的簡約主義若應用在複雜的航太任務中,可能會帶來類似的風險。從 FSD 的偵測失效到登月艙的設計爭議,社群普遍流露出一種對過度簡化工程設計所引發安全隱憂的集體焦慮。