3 月 23 日消息,當地時間 3 月 22 日,據《財富》雜志報道,多數科技行業領袖并未真正思考 AI 的最終走向。諾貝爾獎得主、“AI 教父”的杰弗里 · 辛頓認為,當前行業的核心驅動力并不在長期影響,而是短期回報。“對公司所有者來說,推動研究的動力是短期利潤。”
他對《財富》表示:“對公司所有者來說,驅動研究的是短期利潤。研究人員關注的也是眼前的問題,而不是研究最終會帶來什么結果。我們不會從一開始就設定‘人類未來會怎樣’這樣的目標,而是圍繞具體問題展開,比如如何讓計算機識別圖像,或者生成逼真的視頻,這才是真正驅動研究的動力。”
從報道中獲悉,辛頓長期警告 AI 風險,并認為在實現超級智能之后,AI 導致人類滅絕的概率可能達到 10% 至 20%。2023 年,在將 DNNresearch 出售給谷歌 10 年后,他離開谷歌,以便更自由地表達對 AI 風險的擔憂,并指出難以阻止技術被不良行為者濫用。
對于風險類型,他區分了兩類:“一類是壞人濫用 AI 的風險,這種情況已經出現,例如虛假視頻和網絡攻擊,甚至可能擴展到病毒領域;另一類則是 AI 本身成為不良行為者,這兩者是完全不同的風險。”
在應對路徑上,辛頓認為難點在于每一類問題都需要單獨解決。例如,可以通過類似溯源認證的方式對圖像和視頻進行標記,以遏制深度偽造傳播,就像印刷術出現后出版物開始標注作者一樣。他同時也指出,這類方案具有局限性:“這個問題或許可以解決,但解決它并不能解決其他問題。”
對于 AI 本身的風險,辛頓認為關鍵在于重新定義人與 AI 的關系。一旦 AI 達到“超級智能”水平,不僅能力將全面超越人類,還可能產生生存和控制的動機,現有“人類可以控制 AI”的前提將不再成立。
他提出,應為 AI 設計類似“母性本能”的機制,使其對人類產生同情而非控制欲,并以母嬰關系作類比:目前唯一一個更聰明的存在被較弱者影響的例子,是嬰兒對母親的影響。“因此,這或許是我們面對超級智能 AI 時可以參考的模型 —— 它們像母親,而我們像嬰兒。”











