小米汽車近日正式公布了新一代SU7的核心技術升級,重點聚焦于輔助駕駛系統(tǒng)的智能化突破。此次升級的核心在于搭載了全新研發(fā)的Xiaomi XLA認知大模型,通過多模態(tài)數(shù)據(jù)融合與潛空間推理技術,重新定義了智能駕駛的交互邏輯與決策能力。
硬件層面,新一代SU7實現(xiàn)了全系標配的“滿配”方案。車輛搭載了算力高達700TOPS的Thor芯片,配合激光雷達、4D毫米波雷達、11個高清攝像頭及12個超聲波雷達,構建起360度無死角的環(huán)境感知網(wǎng)絡。這種硬件冗余設計為高階輔助駕駛功能提供了基礎保障,尤其在復雜路況下的目標識別與距離測算能力顯著提升。
Xiaomi XLA認知大模型的引入是此次升級的技術亮點。該模型基于小米自研的Mimo-Embodied具身基座架構,突破了傳統(tǒng)單模態(tài)輸入的局限。通過將激光雷達的點云數(shù)據(jù)、視覺系統(tǒng)的語義信息、導航地圖的全局坐標、聲學反饋的動態(tài)變化以及物理交互數(shù)據(jù)進行深度融合,系統(tǒng)能夠構建出更貼近真實世界的認知框架。例如,在語音控車場景中,用戶可通過自然語言指令同時調(diào)節(jié)行車模式與泊車路徑,系統(tǒng)將多維度指令轉化為統(tǒng)一的執(zhí)行方案。
潛空間推理(Latent CoT)技術的運用解決了智能駕駛決策效率的難題。傳統(tǒng)模型需將機器思維轉化為人類可理解的語言進行推導,而XLA架構直接在高維潛空間完成邏輯推演,大幅縮短了決策鏈路。小米工程師透露,該技術使系統(tǒng)響應速度提升40%,同時通過保留推理過程的可解碼性,確保在需要人工干預時能夠追溯決策依據(jù),避免“黑箱”風險。
在技術路線選擇上,小米采取了融合策略。針對行業(yè)熱議的VLA(視覺-語言-動作)與世界模型之爭,XLA架構創(chuàng)新性地將強化學習與世界模型技術進行耦合。通過構建虛擬環(huán)境模擬器,系統(tǒng)可在離線狀態(tài)下預演數(shù)萬種駕駛場景,結合實時數(shù)據(jù)反饋持續(xù)優(yōu)化決策模型。這種雙軌并行的方式既保證了當前功能的實用性,也為未來L4級自動駕駛預留了技術接口。
功能落地方面,新一代SU7交付即搭載XLA 1.0版本,首批開放語音控車、商場地庫車位級導航等場景。老用戶無需擔憂技術迭代問題,小米承諾將為SU7 Pro/Max、SU7 Ultra及YU7全系車型提供OTA升級服務,確保全生命周期的技術同步。據(jù)測試數(shù)據(jù)顯示,升級后的車輛在狹窄車位泊入成功率提升至98%,語音指令識別準確率達到99.2%,顯著優(yōu)于行業(yè)平均水平。








