多倫多一家專注于AI芯片的初創企業Taalas近日宣布完成1.69億美元新一輪融資,投后累計融資規模達2.19億美元。本輪融資由Quiet Capital、Fidelity及半導體行業資深投資人Pierre Lamond共同參與,資本的注入標志著市場對非英偉達通用GPU算力路徑的認可正在增強。
該公司同步發布了首款功能性演示芯片HC1,采用臺積電6nm制程工藝。與通用加速器不同,HC1專為開源大模型Llama 3.1 8B優化設計。其核心創新在于將AI模型直接固化至硬件層面,通過mask ROM recall fabric與SRAM架構組合,將模型權重寫入芯片而非依賴動態加載。這種設計繞開了傳統GPU因通用性需求預留的冗余運算單元,同時規避了HBM高帶寬內存的功耗瓶頸。
性能數據顯示,HC1可實現每秒17,000 token的生成速度,較英偉達H200提升73倍,功耗僅為后者的十分之一。這種能效優勢源于架構層面的取舍:傳統GPU為適配多種模型保留大量可編程單元,而HC1通過專用化設計將硬件資源完全聚焦于特定模型。更關鍵的是,其定制周期可壓縮至兩個月,相比傳統大廠半年以上的交付周期形成顯著競爭優勢。
Taalas選擇的技術路徑被稱為MSIC(Model-Specific Integrated Circuit),即模型專用集成電路。當前AI產業正經歷關鍵轉型:訓練階段仍由通用GPU主導,但推理環節的規模化部署已成為競爭焦點。企業開始更關注每token成本、能效比及交付速度等指標,而非單純追求峰值性能。在美國強化算力主權、數據中心能耗壓力上升的背景下,這種技術路線展現出獨特價值——若能用十分之一功耗運行同等規模模型,將徹底改變企業的AI投資回報模型。
行業分析指出,若Taalas能將專用化方案擴展至更大參數模型,AI算力市場可能從通用芯片主導轉向通用與專用芯片共存的格局。但這種極致效率的代價是靈活性的喪失:英偉達B200可適配未來出現的任何新架構,而HC1流片后即鎖定特定模型。這意味著公司必須押注Llama等開源架構的長期主導地位,若行業轉向全新模型架構,現有專用硬件將面臨快速貶值風險。
為應對這種不確定性,Taalas已啟動下一代HC2處理器的研發,目標支持200億參數模型,并計劃在2026年底前實現對GPT-5級別系統的覆蓋。目前其戰略重心明確指向推理市場——盡管英偉達在訓練環節的通用性壁壘短期內難以突破,但推理環節的成本敏感度正在持續提升。若MSIC路線能證明具備商業可行性與跨模型擴展能力,或將動搖整個AI芯片行業的架構設計共識。











