OpenAI與芯片企業Cerebras聯合宣布推出面向實時編程場景的GPT-5.3-Codex-Spark模型,這是雙方首次公開的合作成果。該模型由Cerebras提供算力支持,已于近日以研究預覽形式開放,主要服務于對交互速度要求嚴苛的軟件開發場景。
針對傳統編程模式中開發者等待時間過長、過程控制力不足的問題,Codex-Spark通過每秒處理超1000個token的推理速度,實現了近乎實時的代碼反饋。OpenAI指出,當前軟件開發正朝著"自主代理式編程"方向發展,機器雖能持續工作數小時甚至數天,但可能削弱開發者對項目的掌控。因此新模型特別強調"快速響應"與"可引導性",確保開發者在協作過程中始終保持主導地位。
在性能測試中,Codex-Spark在SWE-Bench Pro、Terminal-Bench 2.0等專業基準上展現出顯著優勢。相較于前代GPT-5.1-Codex-mini,該模型在保持回答質量的同時,任務完成效率提升明顯。其核心能力包括精準的代碼修改、動態計劃調整以及基于代碼庫的上下文問答,特別適用于界面布局可視化、樣式優化等需要快速迭代的開發場景。
支撐這一性能突破的是Cerebras的Wafer-Scale Engine芯片技術。該芯片配備行業領先的片上內存系統,單芯片即可支持每秒數千token的推理需求。通過多芯片集群擴展,內存容量可提升至多TB級別,為萬億參數模型的訓練與部署提供硬件基礎。OpenAI透露,計劃在2026年將這種超高速推理能力推廣至更大規模的前沿模型。
目前,Codex-Spark已通過研究預覽形式向ChatGPT Pro用戶開放,集成于Codex應用、命令行工具及VS Code擴展中。部分設計合作伙伴將優先獲得API訪問權限,后續將逐步擴大開放范圍。OpenAI強調,該模型作為"高度優化的小規模模型",專為快速推理場景設計,在保持高效的同時確保開發過程的可控性。











