2月11日,多名用戶發現 DeepSeek 網頁端與移動應用同步迎來版本更新。本次升級最引人矚目的突破在于其上下文長度(Context Window)提升至1M(100萬)Token,標志著其在大規模文檔處理領域邁入了全球頂尖梯隊。
從128K 到1M:處理能力的跨越式增長相較于去年8月發布的DeepSeek V3.1(其上下文長度為128K),本次更新將處理能力提升了近8倍。
實測表現: 經用戶測試,DeepSeek 已能一次性“吞下”整本長篇小說(如超過24萬 Token 的《簡愛》),并精準識別和分析文檔內容。
應用場景: 這意味著程序員可以上傳整個項目代碼庫,學者可以一次性整理百萬字的論文資料,辦公族處理超長會議紀要或法律合同也將更加順暢。
旗艦模型 DeepSeek V4仍在“蓄勢”雖然本次更新顯著提升了長文本能力,但業內消息顯示,這可能只是 V3系列的一次小幅迭代升級。真正的重頭戲——DeepSeek 下一代旗艦模型(預計為 V4)正處于研發后期。
據知情人士透露,由于該模型規模跨越至“萬億參數級”,訓練復雜度的提升導致發布進程略有放緩。
此次升級引發了科技圈的廣泛關注。網友紛紛表示,百萬級上下文對編程和大數據分析是“重大的突破”。與此同時,市場上如QwenLong等模型也在長文本推理領域發力,國產 AI 的“長文本競賽”正日趨白熱化。











