人工智能領域迎來重要進展,一款名為Qwen3.5的大模型正式對外發布并開源。該模型在多模態理解、復雜推理、編程及智能體交互等核心能力上展現出顯著優勢,多項基準測試成績已達到甚至超越國際頂尖閉源模型水平,引發行業廣泛關注。
技術參數顯示,Qwen3.5-Plus版本總參數規模達3970億,但實際激活參數僅170億。這種創新架構使其在保持超越前代萬億參數模型性能的同時,將部署顯存占用降低60%,推理效率實現質的飛躍,最大吞吐量較前代提升19倍。更引人注目的是,其API定價策略極具競爭力,每百萬token僅需0.8元,僅為同性能閉源模型價格的十八分之一。
在基礎能力驗證中,該模型展現出卓越的邏輯推理能力。面對"100米距離應選擇開車還是步行洗車"的經典測試題,Qwen3.5不僅準確識別出題目中的邏輯陷阱,更以幽默方式給出正確答案,并貼心提醒用戶"開車慢行確保安全"。這種類人化的思考過程被完整記錄,顯示模型會經歷需求分析、陷阱識別、方案制定、多輪驗證等復雜決策流程。
實際應用場景測試進一步驗證其多模態優勢。當輸入手繪的禮品購買APP草圖時,模型能自動識別框架結構,在模糊的紅白配色指令下,自主選擇低飽和度紅色方案,生成的HTML代碼可直接運行,且頁面布局與草圖高度吻合。更值得關注的是,模型通過上下文分析判斷用戶為中文使用者,自動將界面語言轉換為中文,展現出強大的環境適應能力。
在復雜場景理解測試中,模型對含有多物體和模糊文字的背光照片展現出驚人解析力。不僅能準確識別布洛芬顆粒、保濕霜等商品品牌及功效,還能結合天氣狀況判斷用戶處于居家休養狀態,并給出"希望天氣好心情也好"的溫馨祝福。這種跨模態推理能力在藝術鑒賞領域同樣突出,面對達利名作《記憶的永恒》,模型能精準識別"融化時鐘"等核心元素,詳細闡述超現實主義風格特征,并完整呈現作品材質、尺寸、收藏地等專業信息。
技術架構創新是該模型突破的關鍵。研發團隊摒棄傳統的"語言+視覺"拼裝模式,從預訓練階段就采用文本與視覺數據的聯合學習方案。這種原生多模態設計使模型能像人類一樣,通過統一認知框架處理圖文交織的信息流。在訓練策略上,團隊創造性地采用異步優化路徑,讓視覺與語言模塊在關鍵節點高效融合,既保證訓練速度,又避免能力相互干擾。
四大核心技術突破支撐起模型的卓越性能。混合注意力機制通過動態分配計算資源,突破長文本處理瓶頸;極致稀疏MoE架構實現參數按需激活,使千億級模型僅需5%算力即可全功率運行;原生多token預測技術將推理速度提升近一倍;系統級訓練優化則確保大規模參數下的穩定性。這些創新共同作用,使模型在保持4000億參數規模下,性能超越前代萬億參數模型。
在智能體應用層面,Qwen3.5展現出強大的環境交互能力。通過與OpenClaw環境集成,模型可自主完成網頁搜索、信息整理和報告生成等復雜任務。在移動端,模型已適配主流應用,支持自然語言指令操作;PC端則能處理跨應用數據整理和流程自動化工作。基于該模型開發的Qwen Code工具,更支持將自然語言直接轉化為可運行代碼,甚至能完成視頻生成等創意任務。











