3 月 23 日消息,當(dāng)?shù)貢r(shí)間 3 月 22 日,據(jù)《財(cái)富》雜志報(bào)道,多數(shù)科技行業(yè)領(lǐng)袖并未真正思考 AI 的最終走向。諾貝爾獎(jiǎng)得主、“AI 教父”的杰弗里 · 辛頓認(rèn)為,當(dāng)前行業(yè)的核心驅(qū)動(dòng)力并不在長(zhǎng)期影響,而是短期回報(bào)。“對(duì)公司所有者來(lái)說(shuō),推動(dòng)研究的動(dòng)力是短期利潤(rùn)。”
他對(duì)《財(cái)富》表示:“對(duì)公司所有者來(lái)說(shuō),驅(qū)動(dòng)研究的是短期利潤(rùn)。研究人員關(guān)注的也是眼前的問(wèn)題,而不是研究最終會(huì)帶來(lái)什么結(jié)果。我們不會(huì)從一開(kāi)始就設(shè)定‘人類未來(lái)會(huì)怎樣’這樣的目標(biāo),而是圍繞具體問(wèn)題展開(kāi),比如如何讓計(jì)算機(jī)識(shí)別圖像,或者生成逼真的視頻,這才是真正驅(qū)動(dòng)研究的動(dòng)力。”
從報(bào)道中獲悉,辛頓長(zhǎng)期警告 AI 風(fēng)險(xiǎn),并認(rèn)為在實(shí)現(xiàn)超級(jí)智能之后,AI 導(dǎo)致人類滅絕的概率可能達(dá)到 10% 至 20%。2023 年,在將 DNNresearch 出售給谷歌 10 年后,他離開(kāi)谷歌,以便更自由地表達(dá)對(duì) AI 風(fēng)險(xiǎn)的擔(dān)憂,并指出難以阻止技術(shù)被不良行為者濫用。
對(duì)于風(fēng)險(xiǎn)類型,他區(qū)分了兩類:“一類是壞人濫用 AI 的風(fēng)險(xiǎn),這種情況已經(jīng)出現(xiàn),例如虛假視頻和網(wǎng)絡(luò)攻擊,甚至可能擴(kuò)展到病毒領(lǐng)域;另一類則是 AI 本身成為不良行為者,這兩者是完全不同的風(fēng)險(xiǎn)。”
在應(yīng)對(duì)路徑上,辛頓認(rèn)為難點(diǎn)在于每一類問(wèn)題都需要單獨(dú)解決。例如,可以通過(guò)類似溯源認(rèn)證的方式對(duì)圖像和視頻進(jìn)行標(biāo)記,以遏制深度偽造傳播,就像印刷術(shù)出現(xiàn)后出版物開(kāi)始標(biāo)注作者一樣。他同時(shí)也指出,這類方案具有局限性:“這個(gè)問(wèn)題或許可以解決,但解決它并不能解決其他問(wèn)題。”
對(duì)于 AI 本身的風(fēng)險(xiǎn),辛頓認(rèn)為關(guān)鍵在于重新定義人與 AI 的關(guān)系。一旦 AI 達(dá)到“超級(jí)智能”水平,不僅能力將全面超越人類,還可能產(chǎn)生生存和控制的動(dòng)機(jī),現(xiàn)有“人類可以控制 AI”的前提將不再成立。
他提出,應(yīng)為 AI 設(shè)計(jì)類似“母性本能”的機(jī)制,使其對(duì)人類產(chǎn)生同情而非控制欲,并以母嬰關(guān)系作類比:目前唯一一個(gè)更聰明的存在被較弱者影響的例子,是嬰兒對(duì)母親的影響。“因此,這或許是我們面對(duì)超級(jí)智能 AI 時(shí)可以參考的模型 —— 它們像母親,而我們像嬰兒。”(清源)











