阿里旗下千問團隊近日正式發布并開源新一代大模型Qwen3.5,該模型在多模態理解、復雜推理、編程能力及智能體應用等維度實現突破,多項性能指標超越GPT-5.2、Gemini 3 Pro等閉源模型,同時以更低的部署成本和極具競爭力的價格引發行業關注。
Qwen3.5-Plus版本總參數達3970億,但通過極致稀疏MoE架構設計,實際激活參數僅170億,相當于僅需調用5%的算力即可發揮全部知識儲備。這種創新架構使其性能超越前代萬億參數模型Qwen3-Max,部署顯存占用降低60%,推理效率最高提升19倍,API定價低至每百萬Token 0.8元,僅為Gemini-3-pro的1/18。在測試中,該模型展現出強大的邏輯推理能力,面對"100米距離選擇開車還是步行"的腦筋急轉彎問題,不僅準確識別出邏輯陷阱,還以幽默方式給出答案并附上安全提示。
在多模態應用場景中,Qwen3.5展現出驚人的跨模態理解能力。當測試人員上傳一張手繪的禮品購買App草圖時,模型不僅精準識別出框架結構和文字信息,還根據上下文判斷用戶為中文使用者,自動生成紅白配色簡約風格的前端頁面代碼,最終呈現效果與草圖高度一致。更令人驚嘆的是,在處理一張包含多個物體和模糊文字的背光照片時,模型不僅準確識別出布洛芬顆粒、保濕霜等物品品牌及功效,還能結合天氣情況推斷用戶正在居家休養,并送上"早日恢復活力"的溫馨祝福。
藝術理解測試中,面對西班牙超現實主義大師達利的名作《記憶的永恒》,Qwen3.5準確識別出"融化時鐘"這一標志性元素,詳細介紹了作者生平、創作背景、畫面材質及藝術地位,甚至能解讀抽象元素背后的象征意義。在編程領域,該模型與OpenClaw環境深度集成,可自主完成網頁搜索、信息整理和結構化報告生成,支持自然語言驅動的手機與電腦操作,在PC端能處理跨應用數據整理、多步驟流程自動化等復雜任務。
技術層面,Qwen3.5實現了真正的原生多模態融合。與傳統"語言+視覺"拼裝方案不同,該模型從預訓練階段就采用文本與視覺混合數據聯合學習,使視覺與語言在統一參數空間深度融合。通過定制化的FP8/FP32精度策略,訓練內存占用降低約50%,速度提升10%。其混合注意力機制可動態分配計算資源,在處理長文本時既保證精度又提升效率;原生多Token預測技術使推理速度接近翻倍,在代碼補全、多輪對話等場景實現"秒回"響應。
這些突破性進展源于四大核心技術創新:混合注意力機制優化長文本處理效率,極致稀疏MoE架構降低算力消耗,原生多Token預測提升響應速度,系統級訓練穩定性優化確保大規模部署可靠性。特別是千問團隊提出的注意力門控機制,通過智能調控信息"流量",有效防止關鍵信息被淹沒或無效信息被放大,該成果曾獲NeurIPS 2025最佳論文獎。這些創新使Qwen3.5在參數規模不足400億的情況下,性能超越萬億參數模型,重新定義了大模型"以小勝大"的技術路徑。








