2 月 13 日消息,Cerebras 與 OpenAI 宣布推出最新的 GPT-5.3-Codex-Spark 模型,主打實時編程。這也是 OpenAI 與 Cerebras 合作的首個公開發布成果。
注:該模型由 Cerebras 提供算力支持,已于當地時間 2 月 12 日以“研究預覽”(research preview)形式開放。
據介紹,Codex-Spark 主要面向對交互速度要求極高的實時軟件開發場景,可實現超 1000 tokens/s 的推理速度,從而實現近乎即時響應的編碼反饋。
OpenAI 在公告中指出,近年來“agentic coding”正逐漸改變軟件開發方式,機器能夠在較少人工監督下持續工作數小時甚至數天。但這種模式也可能帶來新的問題,包括開發者等待時間變長、對過程的掌控感降低。
OpenAI 表示,軟件開發本質上是迭代過程,需要開發者在過程中不斷掌控方向、決定審美與決策,因此 Codex-Spark 被設計為與 Codex 進行實時協作的模型,強調“快速、響應及時、可引導”,讓開發者保持在工作中的主導位置。
從定位上看,Codex-Spark 被描述為“具備高度能力的小模型”,主要針對快速推理場景進行了優化。OpenAI 稱,在 SWE-Bench Pro、Terminal-Bench 2.0 等軟件工程基準測試上,Codex-Spark 在完成任務耗時顯著縮短的同時,能夠給出比 GPT-5.1-Codex-mini 更好的回答。
在具體能力方面,OpenAI 強調 Codex-Spark 擅長進行精確代碼修改、計劃調整,并能圍繞代碼庫進行上下文問答。官方還提到,該模型適用于快速可視化新布局、優化樣式,以及測試新的界面變更等工作。
OpenAI 同時也對 Cerebras 硬件能力進行了介紹。據稱,Wafer-Scale Engine 具備業內最大的 SoC 片上內存,可支撐用戶實現每秒數千 token 級別的高速推理,并可擴展到數千套系統,將高速內存容量擴展到多 TB 級別,以支持萬億參數模型的訓練與推理。OpenAI 表示,預計在 2026 年把這種“超高速推理”能力帶到更大規模的前沿模型上。
在上線范圍方面,OpenAI 稱 Codex-Spark 將以研究預覽形式向 ChatGPT Pro 用戶推送,覆蓋 Codex 應用、CLI 以及 VS Code 擴展,同時 API 訪問將向部分設計合作伙伴逐步開放。











