近日,科技領(lǐng)域迎來一則引人矚目的消息:有網(wǎng)友在體驗(yàn)DeepSeek時(shí)發(fā)現(xiàn),該模型正在進(jìn)行灰度測試,其上下文長度最高可達(dá)1M Token(百萬級),這一數(shù)值遠(yuǎn)超去年8月發(fā)布的V3.1版本所支持的128K上下文長度。當(dāng)用戶在DeepSeek中詢問模型身份及上下文相關(guān)問題時(shí),模型明確回復(fù)稱自身支持1M token的超長上下文。
除了上下文長度的顯著提升,DeepSeek在知識庫更新方面也表現(xiàn)出色。據(jù)測試反饋,該模型的知識庫已更新至2025年5月,即便處于非聯(lián)網(wǎng)狀態(tài),也能夠準(zhǔn)確輸出2025年4月的新聞資訊,這無疑為用戶獲取最新信息提供了有力保障。
不過,目前該模型仍存在一定局限性。它并非多模態(tài)模型,不支持視覺輸入功能,僅能夠處理文本以及語音相關(guān)內(nèi)容。此前有相關(guān)報(bào)道透露,DeepSeek計(jì)劃于2月中旬農(nóng)歷新年期間推出新一代旗艦?zāi)P虳eepSeek V4,新模型將在代碼能力方面有更突出的表現(xiàn),值得期待。











