英偉達與奔馳聯合開發的L2級輔助駕駛系統正式進入量產階段,公司創始人黃仁勛近日親自試乘了搭載該技術的全新奔馳CLA車型。此次試乘視頻顯示,車輛在復雜城區路況下連續22分鐘無需人工接管,展現了高度擬人化的駕駛決策能力。
該系統采用英偉達DRIVE AV全棧軟件架構,整合了DRIVE AGX車端計算平臺與多傳感器融合方案。核心算法基于今年初發布的Alpamayo 1思維鏈推理模型,突破傳統"感知-決策"的線性流程,通過引入視覺-語言-動作的跨模態理解機制,使系統具備實時解釋決策邏輯的能力。在舊金山實測中,面對施工區域臨時改道、違停車輛貼身繞行等場景,車輛均能提前預判并流暢執行操作。
技術團隊特別強調了仿真系統的關鍵作用。通過神經重建技術將真實路況數字化后,系統可在虛擬環境中生成數百萬種極端場景,包括隨機改變行人速度、調整障礙物位置等變量。這種"數字孿生"訓練方式使AI模型在未經歷大規模實車測試的情況下,仍能掌握應對長尾場景的能力。據透露,該方案已實現傳感器配置的模塊化設計,可根據車型定位靈活選配激光雷達。
參與項目開發的英偉達汽車業務負責人表示,此次量產落地標志著公司從硬件供應商向智能駕駛解決方案提供商的轉型。測試數據顯示,系統在交通混流場景下的決策保守度比人類駕駛員高17%,而在需要果斷操作的并線場景中,響應速度較傳統方案提升40%。值得注意的是,黃仁勛在試乘過程中特別提及的"端到端+工程化"混合技術路徑,通過將黑箱模型與可解釋算法結合,解決了純深度學習方案的可靠性難題。
隨著首批量產車型交付,英偉達已向多家合作車企發出最新輔助駕駛平臺的體驗邀請。行業觀察人士指出,這家芯片巨頭正通過軟硬協同的垂直整合策略,在智能駕駛領域構建新的技術壁壘。不過有專家提醒,復雜城區路況的長期穩定性仍需更多實際數據驗證,特別是面對罕見極端場景時的泛化能力,將是決定該方案市場接受度的關鍵因素。











