谷歌今日正式發(fā)布新一代開源大模型Gemma 4,憑借突破性的單位參數(shù)智能水平,成為該公司迄今為止最強大的開源模型。該系列模型專為復(fù)雜推理場景和智能體工作流設(shè)計,在性能與效率之間實現(xiàn)全新平衡,為開發(fā)者提供前沿AI能力與更低硬件成本的雙重優(yōu)勢。

Gemma 4推出四種規(guī)格模型,涵蓋從端側(cè)設(shè)備到數(shù)據(jù)中心的全場景需求:20億參數(shù)的E2B與40億參數(shù)的E4B主打端側(cè)部署,260億參數(shù)的混合專家模型(MoE)和310億參數(shù)的稠密模型(31B)則面向高性能計算場景。所有模型均突破傳統(tǒng)對話應(yīng)用邊界,在數(shù)學(xué)推理、代碼生成、多模態(tài)處理等復(fù)雜任務(wù)中展現(xiàn)卓越能力。其中31B模型在Arena AI文本生成基準(zhǔn)測試中位列全球開源模型第三,26B模型排名第六,性能超越參數(shù)規(guī)模20倍的同類模型。
端側(cè)模型通過架構(gòu)創(chuàng)新重新定義本地部署價值。E2B與E4B采用內(nèi)存優(yōu)化設(shè)計,推理時僅激活對應(yīng)參數(shù)量的計算單元,在保持20億和40億有效參數(shù)的同時,實現(xiàn)近零延遲響應(yīng)。這兩款模型已與高通、聯(lián)發(fā)科等芯片廠商完成適配優(yōu)化,可在智能手機、樹莓派等設(shè)備上完全離線運行,支持語音識別、圖像理解等10余種多模態(tài)任務(wù)。安卓開發(fā)者現(xiàn)可通過AICore預(yù)覽版構(gòu)建智能體流程,與谷歌此前發(fā)布的Gemini Nano 4保持向前兼容。
針對專業(yè)開發(fā)場景,26B混合專家模型采用動態(tài)參數(shù)激活技術(shù),推理時僅調(diào)用38億參數(shù)即可完成復(fù)雜任務(wù),在保持低延遲的同時顯著降低計算資源消耗。31B稠密模型則通過非量化bfloat16權(quán)重設(shè)計,可高效運行于單張80GB顯存的英偉達H100 GPU,量化版本更支持消費級顯卡部署,為編程助手、智能體開發(fā)等場景提供強大基礎(chǔ)能力。

該系列模型的核心突破體現(xiàn)在多維度能力升級:在推理性能方面,數(shù)學(xué)基準(zhǔn)測試得分較前代提升47%,支持多步邏輯規(guī)劃與復(fù)雜指令執(zhí)行;代碼生成模塊可離線生成高質(zhì)量代碼,將開發(fā)工作站轉(zhuǎn)化為本地AI編程環(huán)境;視覺處理模塊兼容可變分辨率輸入,在OCR識別、圖表解析等任務(wù)中準(zhǔn)確率突破92%;上下文窗口擴展至256K tokens,可一次性處理完整代碼庫或長篇文檔。
多語言支持成為另一大亮點。基于超過140種語言的原生訓(xùn)練數(shù)據(jù),Gemma 4在低資源語言處理任務(wù)中表現(xiàn)優(yōu)異,開發(fā)者可輕松構(gòu)建全球化應(yīng)用。谷歌特別優(yōu)化了模型在非拉丁語系中的表現(xiàn),阿拉伯語、印地語等語言的語義理解準(zhǔn)確率較前代提升33%。








