阿里旗下千問團隊近日宣布,正式開源Qwen3.5系列中的四款小尺寸模型——Qwen3.5-0.8B、2B、4B及9B。這組模型延續了Qwen3.5家族的技術優勢,通過原生多模態訓練框架與新型架構設計,在保持低資源占用的同時實現了性能突破,可覆蓋從邊緣設備到云端服務的多樣化場景需求。
針對不同應用場景,四款模型呈現差異化定位。其中0.8B與2B版本以極致輕量化為核心,模型體積較同類產品縮減40%以上,推理速度提升2-3倍,特別適用于智能手機、智能家居等移動端設備,以及需要實時響應的工業物聯網場景。經實測,2B模型在ARM架構芯片上的單次推理耗時僅需8毫秒,滿足自動駕駛輔助系統的低延時要求。
4B版本作為智能體開發專用基座,首次在輕量級模型中集成多模態處理能力。該模型支持文本、圖像、語音的聯合理解與生成,在Agent開發測試中展現出接近專業模型的決策準確率。開發者可基于該模型快速構建客服機器人、教育輔導等場景的智能體,其資源消耗僅為傳統方案的1/5。
9B模型在緊湊結構中實現了性能躍遷,測試數據顯示其綜合表現與GPT-oss-120B相當,但顯存占用降低78%。該特性使其成為服務器端部署的優選方案,尤其在醫療問診、法律咨詢等需要專業領域知識的場景中,既能保證推理質量,又可控制硬件成本。某三甲醫院試點應用顯示,9B模型在醫學文獻分析任務中的準確率達到92.3%。
此次開源同步釋放了模型基座版本,包含預訓練權重與微調工具鏈。開發者可在魔搭社區與Hugging Face平臺獲取完整資源包,社區還提供30余個行業適配方案。隨著四款小尺寸模型的加入,Qwen3.5家族已形成覆蓋0.8B至397B參數的完整矩陣,其中中型尺寸的122B、35B、27B版本此前已應用于金融風控、科研計算等領域。
技術文檔顯示,該系列模型采用動態稀疏激活技術,可根據任務復雜度自動調整計算資源分配。在處理簡單查詢時,9B模型的實際算力消耗可降至理論峰值的35%,這種彈性設計顯著提升了資源利用率。目前已有超過200家企業啟動模型遷移測試,預計年內將形成覆蓋10個行業的標準化解決方案。
















