1 月 29 日消息,勞倫斯伯克利國家實驗室(LBNL)科學家團隊于 1 月 10 日發布重磅研究,提出“熱力學計算”(Thermodynamic Computing)概念,理論上可將 AI 圖像生成的能耗降低至當前水平的百億分之一。
注:傳統的電腦用晶體管的“開”和“關”(0 和 1)來計算,這需要消耗大量電力。熱力學計算則像是在利用大自然的物理規律“順水推舟”,通過物理系統自然的熱運動和能量變化來自動尋找問題的答案,就像讓水自然流向低處來指引路徑,而不是用水泵強行抽水,因此理論上能耗極低。
該研究由 LBNL 科學家 Stephen Whitelam 與 Corneel Casert 共同完成,于 1 月 10 日發表于《自然-通訊》的論文中,揭示了構建“熱力學神經網絡”的可能性。隨后,在 1 月 20 日發表于《物理評論快報》的研究中,團隊通過傳統計算機模擬驗證了這一構想。
Whitelam 指出,傳統的數字芯片需要消耗能量來制造偽隨機噪聲并進行計算,而熱力學計算機則直接利用環境中普遍存在的隨機熱波動(即“自然噪聲”)。
紐約初創公司 Normal Computing 已開發出一種包含八個諧振器的原型芯片,通過特制的耦合器連接。在計算時,系統利用諧振器引入噪聲,待網絡自然達到熱平衡狀態后,新的諧振器配置即為計算結果。這種物理機制從根本上省去了模擬噪聲所需的巨大能耗。
研究人員坦言,目前的解決方案尚處于極其初級的“雛形階段”(Rudimentary)。現有的原型機雖然驗證了原理的可行性,但要制造出在性能、穩定性和規模上能與當前成熟的數字 AI 模型(如 NVIDIA 的 GPU 集群)相媲美的硬件,仍需在材料科學和工程設計上付出巨大的努力。











