全球AI領域迎來重大突破,螞蟻集團正式推出全球首個開源混合線性架構萬億參數模型——Ring-2.5-1T。這款模型在數學邏輯推理與長程任務執行能力上展現出卓越實力,不僅在國際數學奧林匹克競賽(IMO)中斬獲35分金牌水平,更在中國數學奧林匹克(CMO)中以105分遠超國家集訓隊分數線。在復雜任務處理方面,該模型在搜索、編碼等場景中均能獨立完成工作,標志著AI從理論推導向實際應用邁出關鍵一步。
該模型的核心創新在于突破深度思考領域的"不可能三角"——傳統模型在追求邏輯嚴密性時,往往面臨推理速度下降與顯存消耗激增的困境。Ring-2.5-1T通過架構革新,在生成長度超過32K時,將訪存規模壓縮至1/10以下,同時使生成吞吐量提升3倍以上。這種技術突破使其同時獲得"最聰明的開源奧數專家"與"最快的萬億參數思考者"雙重稱號,目前模型已適配Claude Code、OpenClaw等主流框架,權重與推理代碼同步開放于Hugging Face、ModelScope等平臺。
混合線性注意力架構是支撐模型性能的關鍵技術。基于Ring-flash-linear-2.0路線演進,該架構采用1:7比例的MLA(多頭潛在注意力)與Lightning Linear Attention混合設計。訓練過程中,研究團隊將部分GQA(分組查詢注意力)層轉化為Lightning Linear Attention以提升長程推理吞吐量,剩余層通過近似轉換與QK Norm、Partial RoPE等特性適配,在保持63B激活參數量的同時,將推理效率較前代提升顯著。這種設計使長程推理從高成本操作轉變為輕量化任務,有效解決行業痛點。
在思維訓練機制上,模型引入密集獎勵系統,通過嚴格評估每個推理步驟的嚴謹性,大幅減少邏輯漏洞并提升高階證明技巧。結合大規模全異步Agentic RL訓練,模型在搜索、編碼等長鏈條任務中的自主執行能力得到質的飛躍。實測中,面對有限群論證明題,模型準確運用Cauchy定理排除低階交換群可能性,并創造性地引入Heisenberg群作為反例,完整推導出非交換群階數≥27的結論,展現出嚴密的邏輯鏈條處理能力。
系統級編程測試進一步驗證模型實力。在Rust語言高并發線程池開發任務中,模型無需調用現成庫,僅使用Arc、Mutex和Condvar即構建出完整任務分發系統。其設計的監控模塊通過panic::catch_unwind精準捕獲線程崩潰,配合獨立監控線程實現自動重啟,確保任務隊列不丟失且無死鎖現象。優雅關機機制通過活動線程計數與信號量喚醒配合,成功實現所有任務清空目標,展現出對內存安全與并發控制的深刻理解。
螞蟻集團同步推進的擴散語言模型LLaDA2.1與全模態大模型Ming-flash-omni-2.0,共同構建起通用人工智能技術矩陣。LLaDA2.1通過革新生成范式,實現535tokens/s的推理速度,在Humaneval+編程任務中吞吐量達892tokens/s,并具備Token編輯與逆向推理能力。Ming-flash-omni-2.0則打通視覺、音頻與文本邊界,通過全模態感知強化與統一生成框架,實現實時音畫同步創作。這些技術成果旨在為行業提供可復用的能力底座,降低多模態應用開發門檻。
GitHub:https://github.com/inclusionAI/Ring-V2.5
Huggingface:https://huggingface.co/inclusionAI/Ring-2.5-1T
ModelScope:https://www.modelscope.cn/models/inclusionAI/Ring-2.5-1T











