據(jù)行業(yè)內(nèi)部消息,OpenAI正在緊鑼密鼓地籌備一款名為GPT-5.4的新型大模型,其上下文窗口容量將實(shí)現(xiàn)質(zhì)的飛躍。這款新模型預(yù)計(jì)將支持超過(guò)100萬(wàn)tokens的上下文處理,相比前代GPT-5.2的40萬(wàn)tokens容量,提升幅度顯著。這一升級(jí)意味著GPT-5.4能夠在單次請(qǐng)求中容納并處理更大量的文本和數(shù)據(jù),從而滿足更復(fù)雜、更廣泛的應(yīng)用需求。
值得注意的是,OpenAI并非首次嘗試如此龐大的上下文窗口。在其早期模型中,例如GPT-4.1,也曾提供過(guò)100萬(wàn)tokens的上下文處理能力。然而,在后續(xù)的GPT-5.2版本中,這一功能被取消。如今,GPT-5.4的回歸無(wú)疑將重新點(diǎn)燃市場(chǎng)對(duì)于大模型上下文處理能力的關(guān)注,同時(shí)也使OpenAI在上下文處理領(lǐng)域與谷歌和Anthropic等競(jìng)爭(zhēng)對(duì)手保持同步,后兩者目前已經(jīng)支持類似規(guī)模的上下文窗口。
在性能方面,GPT-5.4展現(xiàn)出了顯著的優(yōu)勢(shì)。特別是在處理需要長(zhǎng)時(shí)間運(yùn)行的復(fù)雜任務(wù)時(shí),該模型表現(xiàn)出更為出色的穩(wěn)定性和準(zhǔn)確性。例如,在持續(xù)數(shù)小時(shí)的工作流程中,GPT-5.4能夠更穩(wěn)定地保留用戶請(qǐng)求和運(yùn)行參數(shù),同時(shí)降低錯(cuò)誤率。這一特性對(duì)于需要高度精確和穩(wěn)定性的應(yīng)用場(chǎng)景,如OpenAI Codex等編程輔助工具,將具有極大的實(shí)用價(jià)值,有望進(jìn)一步提升AI在復(fù)雜編程任務(wù)中的自動(dòng)化水平。
除了上下文窗口的擴(kuò)大和性能的提升,GPT-5.4還引入了一項(xiàng)創(chuàng)新功能——“極限推理模式”。在這一模式下,模型能夠針對(duì)復(fù)雜問(wèn)題分配更多的時(shí)間和計(jì)算資源,從而顯著提升其推理能力。這一功能的加入,使得GPT-5.4在處理需要深度思考和復(fù)雜推理的任務(wù)時(shí),能夠展現(xiàn)出更為強(qiáng)大的實(shí)力,進(jìn)一步拓寬了大模型的應(yīng)用邊界。










