OpenAI 近日宣布推出兩款全新小型模型——GPT-5.4 mini 與 GPT-5.4 nano,旨在為高頻、低延遲任務提供更高效的解決方案。這兩款模型在保持高性能的同時,顯著提升了響應速度和運行效率,尤其適用于代碼編寫、實時圖像解析等對延遲要求嚴苛的場景。
據官方介紹,GPT-5.4 mini 在代碼生成、邏輯推理、多模態理解及工具調用等方面表現卓越,其運行速度較前代提升超過兩倍。在多項基準測試中,該模型的成績已接近體積更大的 GPT-5.4 模型,例如在 SWE-Bench Pro 和 OSWorld-Verified 等測試中均展現出強勁競爭力。憑借極低的延遲特性,GPT-5.4 mini 特別適合需要快速迭代的代碼開發流程,可高效完成精準編輯、代碼庫導航及前端界面生成等任務。其在多模態領域的應用也十分突出,能夠快速解析復雜的用戶界面截圖并執行各類計算機操作。
另一款模型 GPT-5.4 nano 則以極致的輕量化設計為亮點,成為目前體積最小、成本最低的版本。作為 GPT-5 nano 的升級款,它專為追求速度與經濟性的任務優化,開發者可將其廣泛應用于文本分類、數據提取、內容排序及簡單代碼子代理等場景。其低延遲特性使其在需要快速響應的輔助任務中表現尤為出色。
目前,兩款模型已正式開放使用。GPT-5.4 mini 已全面接入 API、Codex 及 ChatGPT 平臺,其 API 版本支持 400k 上下文窗口,輸入與輸出成本分別為每百萬 Token 0.75 美元和 4.50 美元。在 Codex 中調用時,該模型僅消耗 GPT-5.4 額度的 30%;ChatGPT 用戶則可通過“思考(Thinking)”功能體驗其能力。GPT-5.4 nano 僅通過 API 提供服務,輸入與輸出成本更低,分別為每百萬 Token 0.20 美元和 1.25 美元,進一步降低了開發門檻。











