OpenAI公司近日宣布推出兩款專為高頻、低延遲任務(wù)設(shè)計的小型模型——GPT-5.4 mini與GPT-5.4 nano。這兩款模型在延續(xù)GPT-5.4核心能力的基礎(chǔ)上,通過針對性優(yōu)化顯著提升了響應(yīng)速度與執(zhí)行效率,尤其適用于對實時性要求嚴(yán)苛的場景。
GPT-5.4 mini在性能上實現(xiàn)跨越式提升。相較于前代GPT-5 mini,其代碼編寫、邏輯推理、多模態(tài)理解及工具調(diào)用能力均有顯著增強(qiáng),運(yùn)行速度提升超200%。在SWE-Bench Pro編程基準(zhǔn)測試與OSWorld-Verified系統(tǒng)操作評估中,該模型的表現(xiàn)已接近體積更大的GPT-5.4標(biāo)準(zhǔn)版,展現(xiàn)出強(qiáng)大的小型化潛力。其低延遲特性使其成為代碼開發(fā)場景的理想選擇,可高效完成代碼庫導(dǎo)航、精準(zhǔn)編輯及前端界面生成等迭代任務(wù),同時在解析復(fù)雜用戶界面截圖、執(zhí)行計算機(jī)操作指令等任務(wù)中表現(xiàn)突出。
作為體積更小、成本更優(yōu)的解決方案,GPT-5.4 nano針對速度與經(jīng)濟(jì)性進(jìn)行深度優(yōu)化。該模型在繼承GPT-5 nano架構(gòu)優(yōu)勢的基礎(chǔ)上,通過算法壓縮與效率提升,成為當(dāng)前最經(jīng)濟(jì)的OpenAI模型選擇。其輸入輸出成本分別降至每百萬Token 0.20美元與1.25美元,僅為GPT-5.4 mini的三分之一左右。開發(fā)者可將其部署于文本分類、數(shù)據(jù)提取、內(nèi)容排序等基礎(chǔ)任務(wù),或作為代碼子代理處理簡單輔助邏輯,在保持高效的同時大幅降低計算開銷。
目前兩款模型已全面開放使用。GPT-5.4 mini通過API、Codex及ChatGPT三渠道落地,其API版本支持400k上下文窗口,輸入輸出成本分別為每百萬Token 0.75美元與4.50美元。在Codex平臺調(diào)用時僅消耗GPT-5.4額度的30%,ChatGPT用戶則可通過"思考"功能直接體驗。GPT-5.4 nano暫僅提供API接口,其極致的成本控制為大規(guī)模部署提供了可能。OpenAI此次發(fā)布標(biāo)志著小型模型在專業(yè)場景中的應(yīng)用邁入新階段,通過精準(zhǔn)定位高頻需求,為開發(fā)者提供了更具彈性的技術(shù)選擇。











