武漢街頭,多輛蘿卜快跑無人駕駛出租車突然集體“罷工”,整齊地停在高架橋與主干道上,宛如被按下了暫停鍵。幸運(yùn)的是,車內(nèi)乘客均安全撤離,未造成人員傷亡,但這場意外還是引發(fā)了輿論的軒然大波。網(wǎng)絡(luò)上,批評聲如潮水般涌來,“技術(shù)不成熟”“自動駕駛安全隱患大”等標(biāo)簽被迅速貼上,甚至有人將矛頭直指百度,質(zhì)疑其技術(shù)實(shí)力。
然而,這場看似“技術(shù)故障”的背后,或許隱藏著更復(fù)雜的邏輯。自動駕駛領(lǐng)域,安全策略的設(shè)計(jì)往往比技術(shù)本身更關(guān)鍵。以L4級自動駕駛為例,其責(zé)任主體明確為廠商,這意味著車輛必須具備極高的安全冗余——任何決策失誤都可能導(dǎo)致廠商承擔(dān)巨大責(zé)任。因此,當(dāng)系統(tǒng)檢測到潛在風(fēng)險時,選擇“保守停擺”而非“冒險繼續(xù)”,或許是最穩(wěn)妥的選擇。

以蘿卜快跑為例,其車輛硬件配置堪稱豪華:4顆禾賽AT128激光雷達(dá)、12個攝像頭、6個毫米波雷達(dá)、12個超聲波雷達(dá),以及雙Orin X芯片提供的1200 TOPS算力。這樣的配置足以支持單車獨(dú)立完成感知、決策與執(zhí)行,但百度的架構(gòu)設(shè)計(jì)卻將最終決策權(quán)交給了云端。當(dāng)云端下發(fā)停車指令時,車輛會立即執(zhí)行,而非嘗試靠邊停車——因?yàn)樵跓o安全員的情況下,靠邊操作可能引發(fā)二次事故,風(fēng)險更高。
這種“云端集控”模式并非個例。2025年12月,舊金山大面積停電期間,Waymo的無人車也曾因遠(yuǎn)程確認(rèn)請求暴增而集體趴窩。當(dāng)時,車輛雖能識別熄滅的紅綠燈,但出于審慎策略,仍需向遠(yuǎn)程團(tuán)隊(duì)發(fā)送確認(rèn)請求。結(jié)果,遠(yuǎn)程系統(tǒng)因處理量過大而崩潰,導(dǎo)致車輛卡在路口。這與蘿卜快跑的事件如出一轍:都是遠(yuǎn)程環(huán)節(jié)成為瓶頸,都是審慎策略在極端情況下變成了系統(tǒng)性癱瘓。
相比之下,特斯拉的Robotaxi選擇了另一條路——純視覺加端到端神經(jīng)網(wǎng)絡(luò),車端完全自主決策。這種模式賦予了單車極高的靈活性,但也帶來了高事故率。2025年6月至今,特斯拉在奧斯汀的Robotaxi累計(jì)發(fā)生14起碰撞,事故率約為人類的4到8倍。其問題不在于“不敢動”,而在于“太敢開”——在復(fù)雜路況下,車端決策可能過于激進(jìn),導(dǎo)致事故發(fā)生。
三家公司,三種策略,三種代價。特斯拉放權(quán)給單車,換來了高事故率;Waymo介于兩者之間,保守確認(rèn)機(jī)制在大規(guī)模異常時崩潰;蘿卜快跑則選擇云端集控,稍有刺激便進(jìn)入“保護(hù)性休克”。從乘客安全的角度看,蘿卜的策略或許并非最差——當(dāng)系統(tǒng)檢測到風(fēng)險時,車輛立即停穩(wěn),乘客可迅速撤離,避免了二次事故的可能。這種“敏感肌”式的安全策略,雖顯得笨拙,卻可能是對乘客最負(fù)責(zé)的選擇。
自動駕駛的爭議,本質(zhì)上是公眾對技術(shù)風(fēng)險的容忍度問題。當(dāng)大模型出錯時,人們可以寬容地稱之為“智能涌現(xiàn)”;但當(dāng)自動駕駛車因安全策略停擺時,卻容易被貼上“技術(shù)不行”的標(biāo)簽。這種雙重標(biāo)準(zhǔn),或許源于對自動駕駛的過高期待——我們既希望它像人類一樣靈活,又要求它比人類更可靠。然而,技術(shù)的成熟需要時間,安全策略的優(yōu)化更需要實(shí)踐檢驗(yàn)。對于蘿卜快跑們而言,站在行業(yè)前沿的代價,就是承受更多的質(zhì)疑與壓力。但無論如何,讓車用最安全的方式停下來,始終是自動駕駛最難的課題。






