近日,國產大模型與芯片領域的協同發展迎來重要進展。智譜AI宣布其最新開源大模型GLM-5完成與國內多家主流芯片平臺的深度適配,包括華為昇騰、摩爾線程、寒武紀、昆侖芯、沐曦、燧原及海光信息等企業均實現從硬件底層到推理框架的全面優化。這一突破標志著國產算力生態在人工智能領域形成關鍵技術閉環,為大規模商業化應用奠定基礎。
在硬件適配層面,多家企業展現出技術突破。海光信息通過自研DTK軟件棧,重點優化底層算子與硬件加速模塊,使GLM-5在其DCU芯片上實現吞吐量提升40%的同時,推理延遲降低35%。摩爾線程則基于MUSA架構的MTT S5000全功能GPU,通過SGLang推理框架完成全鏈路打通,首次釋放原生FP8加速能力,在保持模型精度的前提下減少顯存占用達50%。該芯片單卡AI算力達1000 TFLOPS,配備80GB顯存及1.6TB/s帶寬,支持從FP8到FP64的全精度計算。
技術架構層面,GLM-5實現多項創新。模型參數規模從3550億擴展至7440億(激活參數400億),預訓練數據量增長至28.5TB,顯著提升復雜任務處理能力。其獨創的"Slime"異步強化學習框架突破傳統模型規模限制,通過異步智能體持續從長程交互中學習。引入的DeepSeek Sparse Attention稀疏注意力機制,在維持長文本處理效果的同時,將部署成本降低60%,Token使用效率提升25%。
在專業領域表現上,GLM-5的編程與多智能體協作能力達到開源模型新高度。實測顯示,其在真實編程場景中的體驗已接近Claude Opus 4.5水平,特別擅長處理分布式系統工程和長周期智能體任務。這種能力突破源于模型架構的全面升級,包括更高效的注意力機制、增強的代碼理解模塊以及優化的推理引擎。
值得關注的是,此次技術突破并非孤立事件。一個月前,智譜發布的圖像生成模型GLM-Image已采用"自回歸+擴散解碼器"混合架構,成為首個開源工業級離散自回歸圖像生成模型。華為昇騰團隊當時透露,其NPU與MindSpore框架為該模型訓練提供全流程支撐,通過動態圖優化、算子融合等技術,使訓練效率提升3倍。
行業觀察人士指出,國產AI生態正形成"模型-芯片-框架"協同創新的良性循環。GLM-5與主流國產芯片的深度適配,不僅驗證了技術路線的可行性,更為金融、醫療、制造等關鍵領域的自主可控應用提供了解決方案。隨著更多企業加入生態共建,國產AI基礎設施的競爭力有望持續增強。










