在通用大模型領域,螞蟻集團百靈大模型家族近日推出重磅新品——萬億參數規模的Ling-2.5-1T模型。這款以"即時響應"為核心特性的旗艦產品,通過架構創新與工程優化,在保持萬億參數規模的同時實現了推理效率的突破性提升,為開發者提供了兼具性能與成本優勢的新選擇。
研發團隊在基礎架構層面進行深度重構,將傳統GQA結構升級為1:7比例的MLA與Lightning Linear混合架構。通過Ring-flash-linear-2.0技術路線,部分注意力層被改造為線性注意力機制,使長文本處理吞吐量提升40%。剩余層經MLA轉換后,配合優化的QK Norm與Partial RoPE模塊,將KV緩存占用壓縮至行業領先水平。這種設計使模型雖擁有630億激活參數,但實際運行效率超越多數320億參數模型,尤其在長文本生成場景下優勢顯著。
在上下文處理能力方面,該模型支持100萬token的超長窗口,預訓練語料庫擴展至29TB規模。在"大海撈針"測試中,模型在百萬token范圍內保持98.7%的關鍵信息檢索準確率。對比采用MLA與DSA架構的同類產品,其在文獻綜述、合同分析等超長文本任務中展現出更強的細節捕捉能力。測試數據顯示,處理3000行復雜JSON日志時,模型可自動提取20余個維度的結構化數據,生成關聯完整的Excel報表。
指令遵循能力的進化體現在多維度約束處理上。通過構建Agent-based校驗機制,模型在IFeval基準測試中取得顯著進步,復雜指令的執行準確率提升27%。在電商運營場景測試中,面對包含15類商品、50個訂單的混合數據日志,模型自主完成文件定位、依賴安裝、數據清洗和表格生成的全流程,最終交付成果的數據關聯準確率達99.3%。這種端到端的任務處理能力,使其在自動化辦公、智能客服等場景具有直接應用價值。
寫作能力的優化通過人文強化訓練實現。研發團隊引入社科專家參與RLHF訓練,重點消除機器文本的程式化特征。在對比測試中,當要求以"產品翻車的CEO"身份撰寫朋友圈文案時,模型生成的文本包含"滿屏的質疑和滾燙的機身"等具象化表達,較同類產品更貼合真實情緒狀態。在正式致歉信寫作中,其主動承認供應鏈監管失職的表述,展現出更符合人類溝通習慣的責任擔當意識。
效率優化方面,模型通過思維鏈壓縮技術減少無效推理步驟。在相同輸出質量下,其token消耗量較前代降低65%,接近需要3-4倍token消耗的前沿思考模型水平。這種"精準打擊"的特性在復雜任務鏈中尤為突出,測試顯示處理多步驟Agent任務時,其有效推理占比達92%,遠超行業平均的78%水平。
該模型的推出完善了螞蟻集團大模型技術矩陣。與專注邏輯推理的Ring模型、擅長多模態處理的Ming模型形成互補,構成覆蓋通用場景的完整解決方案。開源版本的發布為開發者提供穩定的技術底座,其混合線性架構的成熟應用,驗證了超大規模模型在保持高效運行的同時實現情感化交互的可能性。在Hugging Face和ModelScope平臺同步上線的模型,已吸引眾多開發者進行二次開發,應用于智能寫作、自動化辦公等多個領域。











