全球最大的AI模型聚合平臺OpenRouter上,一場關于算力與電力的較量正在悄然展開。這個被比作AI領域"Steam"的平臺,每日處理超過1萬億Token的請求量,長期由美國模型主導市場。然而,近期中國AI模型的表現令人矚目——今年2月,國產模型調用量三周內激增127%,首次實現對美國模型的超越,其中2月9日至15日單周處理量達4.12萬億Token,遠超美國同期的2.94萬億。
這場逆襲背后,隱藏著AI產業最核心的競爭邏輯:當7分錢的電力通過顯卡轉化為Token后,竟能以18元的價格出售給美國用戶,價格差距達25倍。這種看似暴利的商業模式,實則折射出全球算力市場的結構性矛盾——美國雖掌握著最先進的芯片技術,卻面臨著電力基礎設施老化的困境。馬斯克等科技巨頭不得不通過自建電廠緩解算力中心的用電壓力,但這種臨時性方案難以應對未來持續增長的算力需求。
中國模型的崛起并非偶然。以MiniMax M2.5、Kimi K2.5和DeepSeek V3.2為代表的國產模型,憑借價格優勢迅速占領市場。這些模型每Token生成成本不足美國同類產品的十分之一,且性能差距持續縮小。OpenRouter平臺數據顯示,前五名調用量模型中,中國產品占據三席,形成穩定的第一梯隊。這種優勢直接反映在用戶選擇上——某開源項目用戶抱怨,剛充值的20美元Token余額,在設定簡單任務后竟一夜耗盡,凸顯出全球AI應用對Token的巨大需求。
但繁榮表象下藏著產業痛點。調查發現,雖然模型來自中國,但支撐這些模型運行的算力中心大多位于美國。以MiniMax M2.5為例,其服務器集群主要部署在美國數據中心,僅DeepSeek V3.2保留了部分國內算力。這種"模型出海、算力留守"的現象,暴露出中國AI產業在全球化進程中的現實困境:數據安全法規限制、高端芯片獲取困難以及用戶體驗優化需求,共同推動企業選擇海外算力資源。
美國第14117號行政令成為橫亙在中國AI企業面前的壁壘。該法令嚴格限制向中國傳輸敏感個人數據,包括基因信息、生物識別、健康數據等。若中國服務器處理這類數據,將直接面臨禁令風險。更嚴峻的是芯片差距——英偉達B200芯片的推理能效達到H100的25倍,這種技術代差使得國內算力中心在成本競爭中處于劣勢。典型案例是出海應用Talkie,其雖使用中國訓練的模型,但推理算力完全依賴亞馬遜、谷歌等美國供應商,運營主體也注冊在新加坡以規避風險。
產業格局正在發生微妙變化。IDC最新報告顯示,2025年上半年中國加速芯片市場規模突破190萬張,國產AI芯片市場份額攀升至35%。華為昇騰等企業推出的新產品,開始在推理端市場與英偉達形成競爭。這種技術突破為算力出海帶來轉機——當國產芯片能效比接近國際水平時,中國電力成本優勢將轉化為真正的市場競爭力。與此同時,美國結構性缺電問題持續惡化,其電力基礎設施更新需要數十年時間,這為中國算力產業提供了戰略機遇期。











