在數(shù)據(jù)中心領(lǐng)域,網(wǎng)絡(luò)與存儲團(tuán)隊長期各自為政,這種“壁壘”現(xiàn)象由來已久。早期從事網(wǎng)絡(luò)工程時,存儲系統(tǒng)對許多從業(yè)者而言猶如神秘的“黑盒子”,如今多數(shù)企業(yè)仍面臨類似困境。兩大團(tuán)隊的核心關(guān)注點差異顯著:存儲團(tuán)隊聚焦每秒輸入/輸出操作次數(shù)(IOPS)與設(shè)備耐久性,而網(wǎng)絡(luò)團(tuán)隊則更在意數(shù)據(jù)傳輸延遲與網(wǎng)絡(luò)吞吐量。這種割裂狀態(tài)在英偉達(dá)GTC 2026大會上迎來轉(zhuǎn)折——首席執(zhí)行官黃仁勛發(fā)布的BlueField-4 STX存儲架構(gòu),正以創(chuàng)新技術(shù)打破傳統(tǒng)邊界。
英偉達(dá)此次推出的模塊化參考架構(gòu),通過硬件層面的深度優(yōu)化實現(xiàn)了性能飛躍。相較于傳統(tǒng)基于中央處理器的存儲方案,該架構(gòu)的Token處理吞吐量提升達(dá)5倍,能源效率提高4倍。但數(shù)字背后蘊(yùn)含著更深層的變革:這項技術(shù)重新定義了智能體人工智能時代的存儲范式。當(dāng)AI系統(tǒng)從簡單問答向跨會話多步驟任務(wù)演進(jìn)時,傳統(tǒng)存儲架構(gòu)因響應(yīng)速度不足導(dǎo)致的性能瓶頸愈發(fā)凸顯——例如AI智能體在處理長達(dá)10小時的對話或大型技術(shù)文檔時,傳統(tǒng)數(shù)據(jù)路徑的延遲會使高價值GPU資源閑置,造成巨大浪費。
BlueField-4 STX的核心創(chuàng)新在于構(gòu)建了高性能上下文層。通過英偉達(dá)CMX(上下文內(nèi)存存儲)平臺,該架構(gòu)突破了單機(jī)內(nèi)存限制,實現(xiàn)機(jī)架級GPU內(nèi)存擴(kuò)展。這項技術(shù)使AI工廠的數(shù)據(jù)攝取速度提升一倍,同時維持長上下文推理所需的實時響應(yīng)能力。測試數(shù)據(jù)顯示,在處理復(fù)雜AI推理任務(wù)時,新架構(gòu)可將GPU等待時間降低60%,顯著提升計算資源利用率。
支撐STX架構(gòu)的是英偉達(dá)Vera Rubin技術(shù)平臺,其通過硬件協(xié)同設(shè)計實現(xiàn)性能突破。該平臺整合了三大核心組件:承擔(dān)復(fù)雜邏輯運算的Vera CPU、提供超低延遲數(shù)據(jù)通道的ConnectX-9 SuperNIC網(wǎng)絡(luò)適配器,以及支持大規(guī)模AI集群部署的Spectrum-X以太網(wǎng)架構(gòu)。這種垂直整合設(shè)計將存儲任務(wù)從通用CPU轉(zhuǎn)移至專用加速硬件,在降低40%能耗的同時,將數(shù)據(jù)傳輸效率提升至新高度。對于受電力供應(yīng)限制的數(shù)據(jù)中心而言,這種能效提升直接關(guān)系到業(yè)務(wù)擴(kuò)展能力。
新架構(gòu)的部署對IT運維模式產(chǎn)生深遠(yuǎn)影響。網(wǎng)絡(luò)與存儲的職能邊界正在消融:網(wǎng)絡(luò)管理員需要掌握存儲加速技術(shù),而存儲專家必須熟悉遠(yuǎn)程直接內(nèi)存訪問(RDMA)、RoCE協(xié)議等網(wǎng)絡(luò)優(yōu)化手段。這種轉(zhuǎn)變源于STX架構(gòu)將存儲功能內(nèi)嵌于網(wǎng)絡(luò)架構(gòu)——在基于Spectrum-X的解決方案中,存儲不再是終端設(shè)備,而是分布于整個網(wǎng)絡(luò)架構(gòu)的動態(tài)資源層。運維團(tuán)隊需協(xié)同優(yōu)化數(shù)據(jù)在CMX緩存層與GPU之間的流動路徑,任何微秒級的延遲都可能影響AI推理的連續(xù)性。
統(tǒng)一的管理框架是確保協(xié)同效率的關(guān)鍵。英偉達(dá)DOCA軟件開發(fā)套件與AI Enterprise平臺的深度整合,使得網(wǎng)絡(luò)接口配置與存儲加速參數(shù)調(diào)整可通過單一界面完成。這種設(shè)計哲學(xué)在Vera Rubin平臺的開發(fā)過程中已得到驗證——通過將數(shù)據(jù)中心視為整體進(jìn)行優(yōu)化,英偉達(dá)成功將多學(xué)科工程知識轉(zhuǎn)化為可量化的性能優(yōu)勢。網(wǎng)絡(luò)高級副總裁Kevin Deierling用“思考需要內(nèi)存”的比喻解釋這種設(shè)計理念:就像人類需要記錄待辦事項,AI智能體的推理過程同樣依賴高效內(nèi)存系統(tǒng),而STX架構(gòu)正是為滿足這種需求打造的優(yōu)化解決方案。
行業(yè)對這項技術(shù)的響應(yīng)速度超出預(yù)期。CoreWeave、Oracle Cloud等云服務(wù)提供商已率先部署STX架構(gòu)用于AI推理集群,實測顯示其上下文內(nèi)存訪問延遲降低至傳統(tǒng)方案的1/5。Dell Technologies、HPE等硬件廠商正基于該架構(gòu)開發(fā)新一代存儲系統(tǒng),Supermicro與QCT則已推出預(yù)裝STX的機(jī)架級解決方案。這種跨行業(yè)協(xié)作正在重塑數(shù)據(jù)中心生態(tài)——從芯片設(shè)計到系統(tǒng)集成,整個產(chǎn)業(yè)鏈都在圍繞智能體AI的需求重新定位。
對于IT專業(yè)人員而言,技術(shù)融合帶來的既是挑戰(zhàn)也是機(jī)遇。存儲與網(wǎng)絡(luò)知識的交叉需求正在改寫人才標(biāo)準(zhǔn),掌握RDMA優(yōu)化與GPU內(nèi)存管理的復(fù)合型人才將成為稀缺資源。英偉達(dá)透露,基于STX架構(gòu)的平臺將于2026年下半年正式商用,這為運維團(tuán)隊預(yù)留了寶貴的適應(yīng)期。在智能體AI驅(qū)動的產(chǎn)業(yè)變革中,能夠同時駕馭Spectrum-X網(wǎng)絡(luò)架構(gòu)與上下文內(nèi)存管理的工程師,將在新一代數(shù)據(jù)中心建設(shè)中占據(jù)先機(jī)。











