你坐在駕駛座上,前方紅燈閃爍,閘桿緩緩落下,遠處傳來火車汽笛。你剛放松肩膀準備等上一分鐘——車突然自己沖了出去。
這不是科幻片的設定。這是得州車主Joshua Brown的真實經歷,也是特斯拉"完全自動駕駛"(FSD)系統又一次將人類置于生死抉擇的極端場景。
![]()
當系統選擇"前進"而非"停下"
Brown的履歷讓這次事件更具張力。他自稱有超過4萬英里的FSD使用經驗,還有賽車背景。按他的說法,這是FSD第一次"讓我失望"。
事發時,他在一個活躍的鐵路道口停穩:閘桿已降、警示燈閃爍、火車尚在遠處。系統本應保持靜止,卻在無預警情況下突然加速。
「沒有任何警告……我的特斯拉突然自己向前加速,」Brown向Storyful描述,「我完全驚呆了。反應時間超過一秒——比我愿意承認的更長。」
這一秒的延遲,把人類駕駛員推入兩難。Brown沒有剎車,而是選擇踩死油門——賽車界的老話:"拿不準時,給油沖過去。"
車輛撞穿閘桿,碎片擊中駕駛側車窗,儀表臺上的物品被震落。火車正呼嘯逼近。
「混亂中我瞥向右方,看到火車正沖向我們——大燈刺眼,汽笛轟鳴。距離近得可怕,」他說,「不知怎的,車沖到了鐵軌另一側。直到那時我才猛踩剎車。」
車停穩后,觸摸屏彈出提示:"自動駕駛已退出,發生了什么?"
這不是孤例:鐵路道口已成FSD的系統性盲區
Electrek跟蹤這類事件已超一年。2025年3月,加州West Covina一輛Model 3在FSD模式下以23英里時速徑直撞穿鐵路道口閘桿,車主配文"特斯拉FSD今天差點要了我的命"。
NBC News記錄了40多起社交媒體曝光的FSD鐵路道口故障。2025年,賓州東部一輛特斯拉在FSD控制下駛上鐵軌,被火車撞擊。
這些案例催生了參議員Ed Markey和Richard Blumenthal致函國家公路交通安全管理局(NHTSA),要求正式調查FSD在鐵路道口的行為。
NHTSA已有針對FSD的公開調查,此前將至少58起事件、14起碰撞、23人受傷與該系統關聯。這一數字現已增至約80起記錄在案的違規,包括駛入對向車道、闖紅燈等。
鐵路道口的特殊性在于:它同時考驗系統的多維度感知——靜態障礙物(閘桿)、動態信號(閃爍紅燈)、時間壓力(逼近的火車)、以及空間約束(狹窄軌道區域)。
FSD的決策邏輯在此暴露短板。系統似乎將"保持行駛"置于"識別危險并停止"之上,這與人類駕駛員在類似場景下的直覺反應形成錯位。
技術迭代的時機:v14.3的"20%更快反應"夠嗎?
Brown遭遇事故的次日,特斯拉開始推送FSD v14.3。更新說明提到兩項關鍵改進:基于MLIR(多級中間表示)的新編譯器與運行時,號稱"反應速度提升20%";以及對"罕見異常物體侵入、懸掛或傾斜進入車輛路徑"的處理優化。
時間線的巧合引人注意。是事故推動了緊急修復,還是更新本就在計劃之中?特斯拉未予置評。
但"更快反應"能否解決根本問題存疑。Brown的案例中,系統并非反應慢——而是做出了完全錯誤的方向選擇。從靜止加速沖向前方障礙,這與反應時間無關,是決策層的邏輯缺陷。
MLIR編譯器優化的是推理延遲,即傳感器數據到控制指令的管道效率。但鐵路道口的挑戰在于語義理解:系統需要同時解析"閘桿=禁止通行""火車=致命威脅""靜止等待=正確策略"的復合規則。
當前的端到端神經網絡架構,依賴海量數據訓練出的模式匹配。鐵路道口屬于低頻場景,訓練數據不足可能導致系統對"等待"這一行為的優先級估計偏低。
v14.3的"罕見物體"優化描述也值得玩味。"extending, hanging, or leaning into the vehicle path"——閘桿恰好屬于"extending"(延伸進入路徑)的物體。但更新是否專門針對鐵路道口,說明文檔未明確。
人機共駕的灰色地帶:誰擁有最終決策權?
Brown的應對方式揭示了一個被忽視的命題:當系統犯錯時,人類如何接管?
他的賽車背景在此成為雙刃劍。一方面,肌肉記憶讓他在極端壓力下做出快速選擇;另一方面,"給油沖過去"的賽道邏輯,在公共道路上面臨倫理與法律的雙重審視。
如果Brown選擇剎車而非加速,結果會如何?閘桿已被撞斷,車輛可能卡在鐵軌中央。火車的制動距離以公里計,一旦進入可視范圍,碰撞幾乎不可避免。
這是一個沒有正確選項的困境。系統把人類駕駛員拋入"兩害相權"的絕境,而無論選擇哪條路,責任歸屬都模糊不清。
特斯拉的用戶協議要求駕駛員全程保持注意力,雙手隨時準備接管。但"接管"的具體含義從未被精確定義:是糾正方向?是緊急制動?還是在系統正向危險加速時,反向操作油門?
Brown的經歷表明,接管不僅是技術動作,更是情境判斷。當系統以全油門沖向火車時,人類駕駛員需要在零點幾秒內完成:識別系統錯誤→評估環境風險→選擇對抗策略→執行物理操作。
這遠超"監督"的范疇,接近特技駕駛的認知負荷。
監管與商業的張力:安全調查的滯后性
NHTSA的調查節奏與軟件迭代速度存在結構性錯配。傳統汽車召回以硬件缺陷為主,周期以月計;而FSD的更新頻率以周計,調查啟動時,涉事版本可能已被淘汰。
Markey和Blumenthal的呼吁指向一個更深層問題:鐵路道口作為標準化基礎設施,本應是自動駕駛的"簡單場景"——規則明確、信號清晰、危險可預測。如果連這類場景都反復失效,更復雜的開放道路如何應對?
特斯拉的"完全自動駕駛"命名策略,在此承受額外審視。營銷語言暗示的能力邊界,與用戶實際體驗的安全邊際,之間存在可被感知但難以量化的落差。
這種落差在Brown的案例中具象化:4萬英里的信任積累,在一次鐵路道口事件中瀕臨崩塌。"第一次讓我失望"的表述,暗示了長期依賴后的預期違背。
從商業邏輯看,FSD的訂閱模式(每月199美元)依賴用戶持續的信心投入。單次極端事件的傳播效應,可能抵消大量正面體驗的累積。
行業鏡像:端到端架構的普遍困境
特斯拉并非唯一采用端到端神經網絡路線的玩家。Waymo、小鵬、華為等廠商均在推進類似架構,將感知、預測、規劃整合為單一模型。
這種架構的優勢在于泛化能力:系統能從數據中"涌現"出未顯式編程的行為。代價是可解釋性喪失——工程師難以定位特定失敗模式的具體成因。
鐵路道口的反復失誤,可能是端到端架構的結構性癥狀。系統沒有"鐵路道口=必須停車"的硬編碼規則,而是從訓練數據中學習相關性。如果數據中"道口停車"的場景占比不足,或與其他目標(如保持行駛流暢性)沖突,系統可能學到次優策略。
v14.3的"罕見物體"優化,可視為在端到端框架內插入顯式規則層的嘗試。但這種修修補補能否根治問題,抑或只是將失敗模式轉移到其他場景,需要更多數據驗證。
用戶行為的隱性塑造:4萬英里如何改變駕駛習慣
Brown的4萬英里FSD使用史,是理解事件背景的關鍵變量。長期依賴高級輔助駕駛,會重塑人類駕駛員的認知模式:注意力分配、風險感知、甚至肌肉記憶都會發生適應性調整。
這種調整在正常情況下提升效率,卻在異常場景下成為負擔。當系統行為與預期一致時,人類監督者逐漸"去激活";當系統突然背叛預期時,重新激活的認知延遲被放大。
Brown自述的"超過一秒反應時間",在正常駕駛中已屬遲緩,在生死關頭更是奢侈。但這一秒并非單純的注意力渙散,而是"系統不可能錯"的信念崩潰所需的時間。
賽車背景在此呈現復雜面向。專業訓練賦予他極端情境下的操作能力,卻也植入了特定的反應模式。"給油沖過去"在賽道上是對失控的修正,在鐵路道口卻是對系統錯誤的應激補償。
如果接管培訓納入更多"系統反向加速"的模擬場景,人類駕駛員能否發展出更普適的應對策略?目前沒有任何廠商提供這類訓練。
事件余波:當視頻成為證據與敘事戰場
Brown將視頻提交給Storyful,后者作為新聞素材分發機構,將原始素材轉化為可傳播的內容產品。這一選擇本身即是敘事行為:車主選擇公開而非僅向特斯拉或監管機構報告。
在社交媒體時代,個體用戶成為安全數據的重要來源。NBC News的40多起案例,大多來自TikTok、YouTube等平臺的上傳。這種分布式監控補充了官方調查的滯后,卻也帶來選擇性偏差——成功案例很少被上傳,失敗案例獲得不成比例的曝光。
特斯拉面臨的挑戰在于:如何在承認具體失敗的同時,維護對系統整體能力的信心?v14.3的緊急推送,可視為技術層面的回應;但溝通層面的策略,馬斯克一貫的"快速迭代"敘事是否足夠,尚待觀察。
鐵路道口事件的累積,可能推動監管框架的實質性調整。NHTSA的調查若升級為強制召回或功能限制,將影響整個行業的技術路線選擇。
更深遠的影響在于公眾認知。自動駕駛的接受度并非線性積累,而是可能被關鍵事件的傳播所逆轉。Brown的"第一次讓我失望",若在其他4萬英里用戶中引發共鳴,將構成比任何技術參數都更具沖擊力的市場信號。
當系統把你推向火車,而你只能選擇踩死油門沖過去——這究竟是輔助駕駛的失敗,還是人機協作的必然代價?如果下一次,賽車本能也無法帶你脫險呢?
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.