螞蟻集團近日宣布開源其最新研發的全模態大模型 Ming-Flash-Omni 2.0,該模型在視覺語言理解、語音可控生成及圖像編輯等多個領域展現出卓越性能,部分指標甚至超越了國際頂尖的 Gemini 2.5 Pro,為開源社區樹立了新的性能標桿。
作為業界首個全場景音頻統一生成模型,Ming-Flash-Omni 2.0 突破了傳統模型的局限,能夠在同一條音軌中同時生成語音、環境音效與音樂,實現了音頻生成領域的重大創新。用戶只需通過自然語言指令,即可對音色、語速、語調、音量、情緒及方言等參數進行精細調控,滿足多樣化的音頻創作需求。該模型在推理階段達到了 3.1Hz 的極低幀率,支持分鐘級長音頻的實時高保真生成,在推理效率與成本控制方面均處于行業領先地位。
多模態大模型的發展趨勢是走向更統一的架構,以實現不同模態與任務之間的深層協同。然而,現有的“全模態”模型往往難以兼顧通用性與專精性,在特定單項能力上,開源模型通常不及專用模型。螞蟻集團在全模態領域深耕多年,Ming-Omni 系列模型在此背景下持續迭代升級。早期版本構建了統一的多模態能力基礎,中期版本驗證了規模增長對能力提升的作用,而最新發布的 2.0 版本則通過更大規模的數據與系統性訓練優化,將全模態理解與生成能力提升至開源領先水平,并在部分領域超越了頂級專用模型。
Ming-Flash-Omni 2.0 的開源,意味著其核心能力將以“可復用底座”的形式向外界開放,為端到端多模態應用開發提供統一的能力入口。這一舉措將顯著降低開發者在多模型串聯方面的復雜度與成本,推動全模態技術的廣泛應用。
該模型基于 Ling-2.0 架構(MoE,100B-A6B)進行訓練,圍繞“看得更準、聽得更細、生成更穩”三大目標進行了全面優化。在視覺方面,通過融合億級細粒度數據與難例訓練策略,模型顯著提升了對近緣動植物、工藝細節及稀有文物等復雜對象的識別能力;在音頻方面,實現了語音、音效、音樂的同軌生成,支持自然語言對音色、語速、情緒等參數的精細控制,并具備零樣本音色克隆與定制能力;在圖像方面,增強了復雜編輯的穩定性,支持光影調整、場景替換、人物姿態優化及一鍵修圖等功能,即使在動態場景中也能保持畫面連貫與細節真實。
百靈模型負責人周俊指出,全模態技術的核心在于通過統一架構實現多模態能力的深度融合與高效調用。開源后,開發者可以基于同一套框架復用視覺、語音與生成能力,從而大幅降低開發成本與復雜度。目前,Ming-Flash-Omni 2.0 的模型權重與推理代碼已在 Hugging Face 等開源社區發布,用戶也可通過螞蟻百靈官方平臺 Ling Studio 在線體驗與調用該模型。











