DeepSeek近日推出新一代OCR模型DeepSeek-OCR 2,通過引入創新的DeepEncoder V2架構,突破了傳統視覺-語言模型(VLM)的機械處理模式。該模型能夠模擬人類視覺邏輯,動態解析圖像內容結構,在復雜排版場景中展現出顯著優勢。這一技術突破標志著OCR領域從"像素識別"向"語義理解"的范式轉變。
傳統VLM模型普遍采用光柵掃描順序處理圖像,即從左上角到右下角逐塊掃描。這種處理方式在面對多欄文檔、混合排版報表等復雜場景時,往往難以準確捕捉內容間的邏輯關系。例如在處理包含公式與文字混排的科研論文時,傳統模型可能將公式編號與相鄰段落錯誤關聯,導致語義理解偏差。
DeepSeek-OCR 2通過動態重組圖像模塊的創新機制,實現了真正的語義感知處理。該模型不再拘泥于固定掃描路徑,而是根據內容語義自動調整處理順序。在OmniDocBench v1.5基準測試中,新模型以91.09%的準確率刷新紀錄,較前代提升3.73個百分點,在金融報表、法律文書等結構化文檔處理中表現尤為突出。
技術團隊通過優化視覺Token生成機制,將計算成本控制在合理范圍。模型視覺Token數量嚴格限定在256-1120區間,與Google Gemini-3 Pro保持同等效率標準。實際生產測試顯示,該模型處理在線用戶日志的重復率下降2.08%,PDF預訓練數據重復率降低0.81%,展現出卓越的工程實用性。
DeepEncoder V2架構的探索具有更深層的行業意義。該架構創新性地將語言模型架構應用于視覺編碼,天然繼承了大型語言模型(LLM)在混合專家(MoE)架構和高效注意力機制等方面的優化成果。這種跨模態架構融合為多模態大模型發展提供了新的技術路徑,特別是在處理需要邏輯推理的視覺任務時展現出獨特優勢。











