大模型領域迎來重磅消息:Qwen3.5正式發布并開源,在多模態理解、復雜推理、編程及Agent智能體等多個關鍵能力上,不僅領先同級開源模型,多項基準測試成績更是媲美甚至超越GPT - 5.2、Gemini 3 pro等閉源第一梯隊模型,引發行業廣泛關注。
Qwen3.5 - Plus展現出強大的性能優勢。其總參數達3970億,然而激活參數僅170億。這一獨特設計使其性能超越擁有萬億參數的Qwen3 - Max模型,部署顯存占用大幅降低60%,推理效率顯著提升,最大吞吐量可提升至原來的19倍。在價格方面,Qwen3.5 - Plus的API價格最低為每百萬Token0.8元,同等性能下,價格僅為Gemini - 3 - pro的1/18,極具性價比。
在實際測試中,Qwen3.5的表現令人眼前一亮。當被問到“我要去洗車,洗車的地方離家就100米,我是開車去呢,還是走著去呢?”這一充滿邏輯陷阱的“腦筋急轉彎”問題時,國內國外眾多大模型鮮有答對,而Qwen3.5不僅精準識別出題目中的陷阱,還以幽默輕松的語氣給出正確答案,并貼心提醒“開車慢行,確保安全”。深入探究其思考過程,會發現它遵循分析需求、識別陷阱、制定答案、起草答案、內部比較、打磨答案、思考其他可能、確定答案等一系列嚴謹步驟,過程中還會像真人一樣“自我鼓勵”,堅定回答。
Qwen3.5的多模態能力在實際應用場景中得到了充分展現。在多模態理解與代碼生成體驗中,上傳一張禮品購買App前端頁面的手繪草圖,要求生成紅白配色的簡約風前端頁面并輸出可直接使用的HTML代碼。Qwen3.5幾乎瞬間識別出草圖中的基本框架和文字信息,在紅白配色的模糊指令下,自主選擇飽和度適中的紅色,生成的代碼簡潔可用,頁面與草圖高度相似。更值得一提的是,上傳的草圖為英文,Qwen3.5根據問答上下文和提問語言判斷用戶為中文用戶,自動將頁面語言調整為中文。
在復雜場景與OCR能力測試中,隨手拍攝一張包含多個物體和背景的照片,詢問“今天的天氣怎么樣?這張圖片中都有什么?”背光環境下,圖片中文字在陰影內模糊不清,但Qwen3.5準確識別出圖片中的布洛芬顆粒沖劑、保濕霜以及酸奶的品牌,還詳細附上功效。結合外面晴朗的天氣,它綜合判斷用戶正在家休息養生,并送上“希望天氣好心情也好,早日恢復活力!”的祝福。
藝術理解能力方面,給Qwen3.5展示西班牙畫家薩爾瓦多·達利的《記憶的永恒》,它迅速提取出畫中“融化的時鐘”這一特點元素,準確說出作者為薩爾瓦多·達利,并詳細呈現作者的生平信息以及這幅畫的畫面材質、創作時間、尺寸、收藏地等詳細信息。還深入介紹畫的主要元素、象征意義以及藝術地位,展現出對美學和抽象概念的較強理解能力。
Qwen3.5在編程與智能體操作領域同樣表現出色。它可與OpenClaw集成,驅動編程任務。通過將OpenClaw作為第三方智能體環境集成,Qwen3.5能夠進行網頁搜索、信息收集和結構化報告生成,結合自身推理與工具調用能力以及OpenClaw的接口,為用戶帶來流暢的編碼和研究體驗。作為視覺智能體,它能自主操作手機與電腦完成日常任務,在移動端適配更多主流應用,支持自然語言指令驅動操作;在PC端可處理跨應用的數據整理、多步驟流程自動化等復雜任務,有效減少重復性人工干預,提升工作效率。以Qwen3.5為底層模型的Qwen Code支持“vibe coding”,可將自然語言指令轉化為代碼、實時迭代開發項目,并支持生成視頻等創意任務。
Qwen3.5之所以能在多模態能力上取得如此突破,源于千問團隊對模型底層架構的重構,使其從“語言模型”成功進化為“原生多模態大模型”。當前行業中不少所謂的“多模態”方案,本質上是“拼裝”,先訓練語言模型“學說話”,再外掛視覺或音頻模塊,模塊間靠適配層勉強對齊,甚至只是在統一入口背后通過工程路由將不同任務分發給不同模型,未實現真正的多模態融合,且部分視覺理解模型隨視覺能力增強會出現語言能力“降智”問題。而Qwen3.5從預訓練第一天起,就在海量文本和視覺混合數據上聯合學習,如同人類調用五官綜合接收外界信息,讓視覺與語言在統一參數空間內深度融合,使模型看到圖就能自然理解語義,讀到文字便能在腦中構建對應畫面,具備跨模態的直覺理解力。
為實現原生融合的高效運行,Qwen3.5在訓練架構上進行創新。行業傳統做法是讓視覺和語言用同一套并行策略,效率損耗嚴重,而Qwen3.5讓兩者各走最優路徑,再在關鍵節點高效匯合,即使同時喂入文本、圖像、視頻三種數據,訓練速度也幾乎不受影響,與只訓練純文本時相當。同時,通過定制化的FP8/FP32精度策略,使激活內存占用降低約50%,訓練速度提升10%,該策略在強化學習訓練與推理全流程統一應用,降低多模態模型規模化部署的成本與復雜度。在智能體訓練上,千問團隊搭建大規模強化學習框架,支持文本、多模態與多輪對話等場景,訓練效率提升3至5倍。
過去兩年,大模型行業普遍陷入“堆參數、拼算力”的誤區,模型規模不斷攀升,性能雖有提升,但成本也大幅增加,部署需要專屬集群,推理消耗大量算力,中小企業難以負擔,終端設備無法運行,離普惠、實用目標越來越遠。Qwen3.5另辟蹊徑,通過四項核心技術突破實現“以小勝大”。一是混合注意力機制,傳統大模型處理長文本時需對每個token與全部上下文進行全量注意力計算,算力開銷高,Qwen3.5依據信息重要性動態分配注意力資源,提升效率同時保證精度;二是極致稀疏MoE架構,傳統稠密模型每次推理都要調動全部參數運算,Qwen3.5的MoE架構按需激活與輸入內容最相關的“專家”網絡,總參數397B的情況下激活參數僅需17B,不到5%的算力即可調動全部知識儲備;三是原生多Token預測,千問團隊讓模型在訓練階段學會對后續多個位置進行聯合預測,推理速度接近翻倍,在長文本生成、代碼補全、多輪對話等高頻場景中響應速度接近“秒回”;四是系統級訓練穩定性優化,2025年千問團隊發表的注意力門控機制論文獲NeurIPS 2025最佳論文獎,通過在注意力層輸出端加入“智能開關”,智能調控信息“流量”,防止有效信息被淹沒和無效信息被過度放大,提升模型輸出精度和長上下文泛化能力,類似的深層優化還包括歸一化策略和專家路由初始化等,共同確保架構創新在大規模訓練中穩定運行。











