戴爾科技集團創始人兼首席執行官邁克爾·戴爾近日在行業論壇上提出驚人預測:到2028年,全球人工智能領域對內存的總需求量將攀升至2023年的625倍。這一判斷基于AI硬件發展的雙重驅動效應——單顆加速器的內存容量與全球部署規模將同步實現25倍增長。
英偉達產品迭代軌跡印證了這一趨勢。其2023年推出的H100加速器搭載80GB HBM內存,而最新規劃中的Vera Rubin平臺將采用"HBM4+SOCAMM"混合架構,單顆加速器內存容量達1824GB。其中由英偉達牽頭制定的SOCAMM標準,聯合三星、SK海力士等企業開發,專為AI服務器設計,單模塊即可提供1536GB容量,較現有HBM方案實現量級突破。
內存需求的指數級增長源于技術演進的雙重疊加。據行業分析,到2028年單顆AI加速器的內存容量將從80GB擴展至2TB,同時全球數據中心部署的加速器總量也將增長25倍。這種乘數效應使得總內存需求呈現625倍的爆發式增長,遠超傳統計算領域的擴容速度。
值得關注的是,新型內存標準正在重塑技術格局。SOCAMM作為CPU側大容量內存解決方案,與HBM形成互補。在Vera Rubin架構中,1536GB的SOCAMM模塊與288GB HBM4協同工作,使單加速器系統內存容量逼近2TB門檻。這種設計特別針對大語言模型訓練等高負載場景,顯著提升數據吞吐效率。
邁克爾·戴爾特別指出,內存產能擴張需要3-5年建設周期,但當前AI基礎設施需求未見任何放緩跡象。"我們仍處于技術導入的早期階段",他強調,內存技術革新與算力集群擴張的協同效應,將持續推動行業進入新的增長周期。這種發展態勢對半導體供應鏈提出全新挑戰,要求存儲廠商在制程工藝、封裝技術等領域實現突破性創新。











