AIPress.com.cn報道
OpenAI正式發布新一代代碼模型GPT-5.3-Codex-Spark,并宣布該模型由Cerebras提供算力支持,現已以研究預覽形式上線。這是OpenAI與Cerebras合作的首個公開成果,標志著晶圓級算力架構在主流AI編程場景中的首次規模化落地。
Codex-Spark定位于“實時協作式軟件開發”。在當前Agent化編程趨勢下,AI能夠連續數小時甚至數天自主執行任務,但長等待時間與反饋延遲,也可能削弱開發者的參與感與控制力。Codex-Spark強調“響應速度與智能同等重要”,支持開發者在實時交互中持續注入設計判斷與方向決策。
在性能層面,Codex-Spark運行于Cerebras Wafer-Scale Engine架構之上,推理速度超過每秒1000 tokens,實現近乎即時的代碼反饋。在SWE-Bench Pro與Terminal-Bench 2.0等Agent工程基準測試中,該模型在完成時間顯著縮短的同時,能力表現優于GPT-5.1-Codex-mini。
模型能力側重于精準代碼編輯、計劃修訂與上下文理解,適用于代碼庫問答、界面布局調整、樣式優化與交互測試等高頻開發任務。相比長時間自主運行的Agent模式,Codex-Spark更強調“人在回路中”的協同開發體驗。
OpenAI工業計算負責人Sachin Katti表示,引入晶圓級算力為低延遲場景提供了新的平臺能力,使Codex在對延遲敏感的工作流中保持高度響應性。團隊將基于開發者反饋持續優化多算力體系的協同調度能力。
從硬件層面看,Cerebras的Wafer-Scale Engine具備業界最大的片上內存容量,可在單用戶場景下實現數千tokens每秒的高速推理。該架構可橫向擴展至數千套系統,形成多TB級高速內存池,為萬億參數級模型的訓練與推理提供支持。OpenAI預計將在2026年將該超高速推理能力擴展至更大規模的前沿模型。
目前,Codex-Spark已向ChatGPT Pro用戶開放,可通過Codex應用、CLI及VS Code擴展使用;API接口將逐步向部分設計合作伙伴開放。隨著高性能推理基礎設施的持續升級,實時AI編程正邁入更低延遲、更強可控的新階段。(AI普瑞斯編譯)











