谷歌DeepMind近日推出全新開放權重模型系列Gemma 4,憑借Apache 2.0許可證的采用和突破性技術架構,迅速成為人工智能領域焦點。該系列不僅徹底摒棄了此前備受爭議的許可限制,更通過多模態能力與硬件優化方案,為開發者構建了覆蓋全場景的智能生態。
此次發布的四款模型形成差異化矩陣:工作站場景包含310億參數的稠密模型與260億參數的混合專家模型,前者以極致輸出質量見長,后者通過動態激活128個專家模塊中的部分單元,實現僅38億參數的高效運算。邊緣設備端則推出E2B(51億參數/23億有效計算量)與E4B(80億參數/45億有效計算量)兩款模型,其獨創的每層嵌入技術使智能水平遠超同尺寸模型,更突破性地支持離線語音處理功能。
技術測試數據顯示,310億稠密模型在AIME 2026數學基準測試中取得89.2%的準確率,LiveCodeBench編程測試達80.0%,Codeforces算法競賽評分突破2150分。混合專家模型以微弱差距緊隨其后,而E4B在同類測試中仍保持42.5%-52.0%的優異表現,性能超越前代270億參數的Gemma 3。視覺處理方面,新模型支持70-1120塊的可變分辨率圖像分割,可同時分析多張截圖或視頻幀序列,在OCR識別與文檔解析場景展現顯著優勢。
許可證變革被業界視為關鍵突破。相較于此前谷歌自定義許可中的使用限制,Apache 2.0的采用使企業能夠自由進行模型微調與商業部署。該開源協議已獲安卓系統、阿里Qwen及法國Mistral等項目驗證,此次調整直接解決了大型企業用戶面臨的法律審查障礙。谷歌聲明強調:"我們認真聽取了創新者的需求",并透露Gemma 4與閉源的Gemini系列共享核心技術生產線。
硬件適配層面,谷歌推出量化感知訓練技術確保模型精度損失最小化。260億混合專家模型經4位量化后可部署于24GB顯存的消費級顯卡,310億稠密模型量化版本亦能在普通工作站運行。通過與高通、聯發科的合作,小模型在移動端實現功耗優化,安卓開發者已可通過AICore預覽版體驗智能體工作流,未來將與Gemini Nano 4無縫兼容。
自初代發布以來,Gemma系列累計下載量突破4億次,社區衍生出超10萬個變種模型。此次升級標志著谷歌開放戰略的深化,開發者現可在本地硬件運行接近前沿閉源水平的模型,從函數調用、結構化輸出到代碼生成等場景均獲得原生支持。主流推理框架vLLM、SGLang及llama.cpp已同步適配,模型現已登陸Hugging Face、Kaggle等平臺。







