岛国av一区二区_不卡av片_超碰997_精品国产一区二区在线_av中文天堂在线_韩国舌吻呻吟激吻原声

ITBear旗下自媒體矩陣:

DeepSeek最新王炸模型:VLM架構重磅突破,AI像人一樣讀圖

   時間:2026-01-27 22:33:02 來源:智東西編輯:快訊 IP:北京 發表評論無障礙通道
 

頭圖由AI生成

這一框架可用于集成額外文本、語音和視覺等多種模態。

作者 | 陳駿達

編輯 | 云鵬

智東西1月27日報道,剛剛,DeepSeek開源了其面向OCR場景的專用模型DeepSeek-OCR 2,技術報告同步發布。這一模型是對去年DeepSeek-OCR模型的升級,其采用的新型解碼器讓模型看圖、讀文件的順序更像人,而不是像機械的掃描儀。

簡單來說,以前的模型閱讀模式是從左上到右下,地毯式掃一遍圖片,DeepSeek-OCR 2則能夠理解結構,按結構一步步讀。這種新的視覺理解模式,讓DeepSeek-OCR 2可以更好地理解復雜的布局順序、公式和表格。

在文檔理解基準測試OmniDocBench v1.5上,DeepSeek-OCR 2拿到了91.09%的得分,在訓練數據和編碼器都不變的前提下,較DeepSeek-OCR提升了3.73%。與其他端到端的OCR模型相比,這已經是SOTA成績,但其表現要略遜于百度的PaddleOCR-VL(92.86%)OCR管線。

同時,在相似的視覺token預算下,DeepSeek-OCR 2在文檔解析方面的編輯距離(編輯為正確文本所需的工作量)低于Gemini-3 Pro,這證明DeepSeek-OCR 2在確保優越性能的同時保持了視覺token的高壓縮率。

DeepSeek-OCR 2兼具雙重價值:既可作為新型VLM(視覺語言模型)架構進行探索性研究,也能作為生成高質量預訓練數據的實用工具,服務于大語言模型的訓練過程。

論文鏈接:

https://github.com/deepseek-ai/DeepSeek-OCR-2/blob/main/DeepSeek_OCR2_paper.pdf

開源地址:

https://github.com/deepseek-ai/DeepSeek-OCR-2?tab=readme-ov-file

01.

大模型不懂復雜文件結構?

先觀察全局再閱讀便可解決

從架構上來看,DeepSeek-OCR 2繼承了DeepSeek-OCR的整體架構,該架構由編碼器和解碼器組成。編碼器將圖像離散化為視覺token,而解碼器根據這些視覺token和文本提示生成輸出。

關鍵區別在于編碼器:DeepSeek將此前的DeepEncoder升級為DeepEncoder V2,它保留了原有的所有能力,但把原本基于CLIP的編碼器換成基于LLM的,同時通過新的架構設計引入了因果推理。

DeepEncoder V2關注的核心問題在于:當二維結構被映射為一維序列并綁定線性順序后,模型在建??臻g關系時不可避免地受到該順序的影響。

這在自然圖像中可能尚可接受,但在OCR、表格、表單等具有復雜布局的場景中,線性順序往往與真實的語義組織方式嚴重不匹配,從而限制模型對視覺結構的表達能力。

DeepEncoder V2是如何緩解這一問題的?它首先采用視覺tokenizer對圖像進行高效表示,通過窗口注意力實現約16倍的token壓縮,在顯著降低后續全局注意力計算與顯存開銷的同時,保持了充分的局部與中尺度視覺信息。

它并未依賴位置編碼來規定視覺token的語義順序,而是引入因果流查詢(causal queries),通過內容感知的方式對視覺標記進行重排序與蒸餾。這種順序不是由空間展開規則決定,而是由模型在觀察全局視覺上下文后逐步生成,從而避免了對固定一維順序的強依賴。

每個因果查詢可以關注所有視覺token及先前查詢,從而在保持token數量不變的前提下,對視覺特征進行語義重排序與信息蒸餾。最終,僅因果查詢的輸出被送入下游LLM解碼器。

該設計本質上形成了兩級級聯的因果推理過程:首先,編碼器內部通過因果查詢對無序的視覺標記進行語義排序。隨后,LLM解碼器在此有序序列上執行自回歸推理。

相較于通過位置編碼強制施加空間順序的做法,因果查詢所誘導的順序更貼合視覺語義本身,也就是符合人類閱讀內容的正常習慣。

由于DeepSeek-OCR 2主要關注編碼器改進,沒有對解碼器組件進行升級。遵循這一設計原則,DeepSeek保留了DeepSeek-OCR的解碼器:一個具有約5億活躍參數的3B參數MoE結構。

02.

OmniDocBench得分達91.09%

編輯距離低于Gemini-3 Pro

為了驗證上述設計的有效性,DeepSeek進行了實驗。研究團隊分三個階段訓練DeepSeek-OCR 2:編碼器預訓練、查詢增強和解碼器專業化。

第一階段使視覺tokenizer和LLM風格的編碼器獲得特征提取、token壓縮和token重排序的基本能力。第二階段進一步增強了編碼器的token重排序能力,同時增強了視覺知識壓縮。第三階段凍結編碼器參數,僅優化解碼器,從而在相同的FLOPs下實現更高的數據吞吐量。

為評估模型效果,DeepSeek選擇OmniDocBench v1.5作為主要的評估基準。該基準包含1355個文檔頁面,涵蓋中英文的9個主要類別(包括雜志、學術論文、研究報告等)。

DeepSeek-OCR 2在僅使用最小的視覺標記上限(V-token maxmax)的情況下,達到了91.09%的性能。與DeepSeek-OCR基線相比,在相似的訓練數據源下,它表現出3.73%的改進,驗證了新架構的有效性。

除了整體改進外,閱讀順序(R-order)的編輯距離(ED)也顯著下降(從0.085降至0.057),這表明新的DeepEncoder V2可以根據圖像信息有效地選擇和排列初始視覺標記。

在相似的視覺標記預算(1120)下,DeepSeek-OCR 2(0.100)在文檔解析方面的編輯距離低于Gemini-3 Pro(0.115),進一步證明新模型在確保性能的同時保持了視覺標記的高壓縮率。

不過,DeepSeek-OCR 2也不是全能的。在文本密度超高的報紙上,DeepSeek-OCR 2識別效果沒有其他類型的文本好。這一問題后續可以通過增加局部裁剪數量來解決,或者在訓練過程中提供更多的樣本。

03.

結語:或成新型VLM架構開端

DeepEncoder V2為LLM風格編碼器在視覺任務上的可行性提供了初步驗證。更重要的是,DeepSeek的研究團隊認為,該架構具有演變為統一全模態編碼器的潛力。這樣的編碼器可以在同一參數空間內壓縮文本、提取語音特征和重組視覺內容。

DeepSeek稱,DeepSeek-OCR的光學壓縮代表了向原生多模態的初步探索,未來,他們還將繼續探索通過這種共享編碼器框架集成額外模態,成為研究探索的新型VLM架構的開端。

 
 
更多>同類資訊
全站最新
熱門內容
網站首頁  |  關于我們  |  聯系方式  |  版權聲明  |  爭議稿件處理  |  English Version
 
主站蜘蛛池模板: 欧美视频在线看 | 亚洲一区二区三区三州 | 亚洲色图第一页 | 亚洲视频a | 国产日产亚洲精品 | 亚洲无遮挡 | 久久九九免费视频 | av在线天堂| 精品成人在线观看 | 亚洲欧洲久久 | 日日夜夜精品 | 日本中文字幕在线免费观看 | 成人在线高清 | 在线免费观看亚洲 | 国产福利视频在线观看 | 中文字幕精品在线观看 | 亚洲国内自拍 | 一级一级黄色片 | 亚洲视频在线观看 | 人人干视频 | 国产成人精品一区二区三区在线 | 日韩国产一区二区三区 | 中国老女人av | 五月激情啪啪 | 国产精品调教 | 玖玖精品| 黄色av免费播放 | 久久久久一区二区三区 | 亚洲精品久久久久久久久久久久久 | 欧美福利视频在线 | 一级久久久久 | 成人爱爱视频 | 麻豆成人在线视频 | 国产91在线看 | 天堂综合网 | 免费成人黄色片 | 成人在线欧美 | 国产精品美女www爽爽爽视频 | 欧产日产国产69 | 中文字幕一区二区不卡 | 亚洲成熟少妇视频在线观看 |