阿里旗下千問團隊近日正式推出Qwen3.5大模型,該模型在多模態理解、復雜推理、編程能力及智能體應用等核心領域實現突破,多項性能指標超越GPT-5.2、Gemini 3 Pro等閉源頂尖模型。此次開源的Qwen3.5-Plus版本以3970億總參數、170億激活參數的架構設計,在保持性能超越前代萬億參數模型的同時,將部署顯存占用降低60%,推理效率提升19倍,API定價低至每百萬Token 0.8元,僅為Gemini-3-pro的1/18。
在邏輯推理測試中,Qwen3.5展現出獨特的思維過程。面對"100米距離選擇開車還是步行"的腦筋急轉彎,該模型不僅識別出"開車需停放"的邏輯陷阱,更以幽默語氣建議"開車慢行確保安全",其思考路徑包含需求分析、陷阱識別、答案打磨等8個步驟,甚至出現"這個答案應該沒錯"的擬人化自我鼓勵。這種類人思維模式在代碼生成任務中同樣顯著——當用戶上傳禮品購買APP的手繪草圖后,模型自動識別中文語境需求,生成紅白配色簡約風格的完整HTML代碼,頁面布局與草圖吻合度達98%。
多模態處理能力方面,Qwen3.5突破傳統OCR技術局限。在測試中,模型能準確識別背光照片中模糊的文字信息,不僅辨識出布洛芬顆粒、保濕霜等商品品牌,更結合天氣數據推斷用戶處于居家休養狀態,主動輸出"希望天氣好心情也好"的祝福語。藝術鑒賞測試顯示,該模型可深度解析超現實主義作品,在識別達利《記憶的永恒》后,不僅提供作者生平、創作背景等結構化信息,更能闡釋"融化時鐘"的象征意義及畫作在藝術史上的地位。
技術架構創新是Qwen3.5實現"以小勝大"的關鍵。團隊自主研發的混合注意力機制通過動態分配計算資源,使長文本處理效率提升40%;極致稀疏MoE架構將有效參數利用率提高至95%,在保持3970億參數規模的同時,僅需170億參數即可完成推理任務。原生多Token預測技術使模型具備聯合預測能力,在代碼補全場景中實現"秒級"響應,系統級訓練穩定性優化則通過注意力門控機制解決長上下文信息丟失問題,該成果曾獲NeurIPS 2025最佳論文獎。
在智能體應用層面,Qwen3.5已構建完整的工具調用生態。通過集成OpenClaw環境,模型可自主完成網頁搜索、數據整理及結構化報告生成;移動端適配支持主流應用自然語言操控,PC端實現跨應用數據流轉與流程自動化。基于該模型開發的Qwen Code平臺更推出"vibe coding"模式,支持將自然語言指令實時轉化為可執行代碼,并具備視頻生成等創意開發能力。據實測數據,Qwen3.5在視覺空間定位、長視頻時序理解等任務中的準確率較前代提升27%,設備自主操作任務完成率達91%。









