OpenAI與美國AI芯片獨角獸Cerebras聯(lián)合宣布,將部署總計 750 兆瓦的Cerebras晶圓級系統(tǒng),構(gòu)建全球規(guī)模最大的高速AI推理平臺。該合作自 2026 年起分階段實施,預(yù)計 2028 年前全面投產(chǎn),交易價值超 100 億美元(約合人民幣 697 億元),標(biāo)志著大模型廠商正加速擺脫對傳統(tǒng)GPU架構(gòu)的依賴。
Cerebras的芯片以“巨無霸”著稱——單顆芯片集成 4 萬億晶體管,面積相當(dāng)于數(shù)百個常規(guī)GPU之和。其核心優(yōu)勢在于將計算、內(nèi)存與帶寬全部集成于單一晶圓級硅片上,徹底繞開多芯片互聯(lián)帶來的延遲與能耗瓶頸。據(jù)OpenAI測算,在運行大模型時,Cerebras系統(tǒng)的響應(yīng)速度可達基于GPU方案的 15 倍。對于追求毫秒級交互體驗的AI應(yīng)用而言,這不僅是性能提升,更是體驗質(zhì)變。
值得注意的是,OpenAI CEO薩姆·阿爾特曼本人正是Cerebras的早期個人投資者。雙方淵源可追溯至 2017 年——彼時OpenAI剛成立不久,便已探討與這家同年創(chuàng)立的芯片公司合作的可能性。法庭文件顯示,OpenAI長期尋求比英偉達更高效、更具成本效益的替代方案。過去一年,它已先后與博通聯(lián)合開發(fā)定制芯片,并采購AMD新一代MI450 加速器,如今再加碼Cerebras,顯露出其構(gòu)建多元算力底座的戰(zhàn)略決心。
Cerebras CEO Andrew Feldman透露,雙方在 2023 年秋季啟動正式談判,并于感恩節(jié)前敲定合作意向。推動這一決策的,是市場對“極致快速計算”的空前渴求。OpenAI基礎(chǔ)設(shè)施負責(zé)人Sachin Katti直言:“算力直接決定我們的收入潛力。過去兩年,計算能力每年翻倍,收入增長同步攀升。”而工程師反饋顯示,現(xiàn)有硬件在編程輔助等高負載任務(wù)中仍顯吃力,促使公司加速引入Cerebras方案。
資本層面,Cerebras亦迎來爆發(fā)式估值躍升。據(jù)《華爾街日報》報道,公司正洽談以 220 億美元估值融資 10 億美元,較此前 81 億美元的估值接近三倍增長。盡管曾在 2024 年提交IPO申請后又撤回,但如今手握OpenAI、meta、IBM及阿布扎比G42 等重量級客戶,其商業(yè)化路徑已然清晰。截至目前,Cerebras累計融資已達 18 億美元,尚未計入本輪新資金。
這場合作不僅關(guān)乎兩家公司的命運,更折射出AI基礎(chǔ)設(shè)施的深層變革:當(dāng)大模型進入大規(guī)模商用階段,推理效率已成為用戶體驗與商業(yè)變現(xiàn)的核心杠桿。英偉達雖仍主導(dǎo)生態(tài),但晶圓級集成、定制ASIC等異構(gòu)路線正被頭部玩家密集押注。未來AI的競爭,或許不再只是模型參數(shù)的比拼,而是誰能在“說出口的瞬間,就給出答案”。











