2月3日,智譜正式發布并開源GLM-OCR。
據介紹,該模型僅0.9B參數規模,支持vLLM、SGLang和Ollama部署,顯著降低推理延遲與算力開銷,適合高并發與邊緣部署。
據介紹,該模型僅0.9B參數規模,支持vLLM、SGLang和Ollama部署,顯著降低推理延遲與算力開銷,適合高并發與邊緣部署。
官方表示,在訓練策略方面,GLM-OCR率先將多Tokens預測損失(MTP)引入OCR模型訓練過程,以增強損失信號密度并提升模型學習效率。
2月3日,智譜正式發布并開源GLM-OCR。
據介紹,該模型僅0.9B參數規模,支持vLLM、SGLang和Ollama部署,顯著降低推理延遲與算力開銷,適合高并發與邊緣部署。
據介紹,該模型僅0.9B參數規模,支持vLLM、SGLang和Ollama部署,顯著降低推理延遲與算力開銷,適合高并發與邊緣部署。
官方表示,在訓練策略方面,GLM-OCR率先將多Tokens預測損失(MTP)引入OCR模型訓練過程,以增強損失信號密度并提升模型學習效率。