在數據中心人工智能芯片領域,英偉達與AMD長期占據主導地位,但高通正以積極姿態切入這一市場。2025年10月,高通宣布推出面向數據中心的AI推理芯片Qualcomm AI200與A250,同步推出基于這兩款芯片的加速卡及機架級解決方案,標志著其AI戰略向數據中心場景的深度延伸。
沙特AI企業Humain近期成為高通數據中心AI芯片的首個大規模部署案例。當地時間2月24日,Humain首席執行官Tareq Amin在LinkedIn平臺宣布,高通全棧式AI機架已運抵其數據中心,首批搭載AI100芯片的機架正在安裝調試中。該部署計劃分階段推進,首期將部署1024張AI加速器,成為高通全球范圍內規模最大的AI加速器部署項目之一。Adobe作為Humain數據中心的首個客戶,將率先應用這一基礎設施開展業務。
AI100芯片并非高通最新產品,其于2019年發布,采用7納米制程工藝,AI算力達100TOPs,是同期驍龍855移動平臺的50倍。該芯片支持TensorFlow等主流AI框架,并配備完整軟件系統,但受限于當時的技術條件,其內存配置較為保守——Ultra版本僅配備128GB內存,單顆芯片最多可運行320億參數的大模型。從當前視角看,這款芯片的硬件規格已顯落后,尤其在內存容量與算力密度方面落后于新一代產品。
Humain選擇AI100芯片的決策引發行業關注。分析認為,成本優勢與供應鏈現實是主要考量因素:一方面,AI100作為6年前發布的產品,價格已大幅下降;另一方面,當前市場熱門AI芯片被OpenAI、甲骨文等云服務巨頭大量采購,導致供應緊張,Humain作為新興企業難以以合理價格獲取足夠貨源。Adobe作為首個客戶的應用場景集中在圖像填充與生成等基礎任務,AI100的算力與內存配置已能滿足需求,無需追求更高性能的芯片。
高通與Humain的合作已進入戰略層面。2025年3月13日,雙方簽署諒解備忘錄,宣布將聯合開發下一代人工智能數據中心、基礎設施及云到邊緣服務,以應對全球AI需求的快速增長。根據規劃,高通最新發布的AI200芯片將于2026年上市,A250則需等到2027年。在此過渡期內,AI100將成為Humain構建AI基礎設施的核心組件,為其客戶提供穩定的技術支持。











