盡管當前的AI大模型在邏輯推理和任務處理上表現(xiàn)驚人,但一個長期被忽視的技術(shù)缺陷可能正成為通往通用人工智能(AGI)道路上的巨大障礙。近日,曾參與 OpenAI 推理模型 o1和 o3開發(fā)的核心研究員 Jerry Tworek 在受訪時直言:目前的AI模型根本無法從錯誤中汲取教訓。
Tworek 指出,當現(xiàn)有的AI模型在處理問題失敗時,開發(fā)者往往會陷入一種無力感,因為目前還缺乏有效的機制讓模型根據(jù)失敗經(jīng)驗來更新其內(nèi)在的知識體系或信念。他形容當前的AI訓練過程本質(zhì)上是“極其脆弱的”,一旦遇到訓練模式之外的新挑戰(zhàn),模型就很容易陷入“推理崩潰”的困境,這與人類那種具備自我穩(wěn)定和自我修復能力的魯棒性學習方式形成了鮮明對比。
正是為了攻克這一難題,Tworek 已于近期離開 OpenAI,專注于尋找讓AI能夠自主解決困難、擺脫困境的技術(shù)路徑。他強調(diào),如果一個模型不能在面對挫折時自我進化,那么它就很難被稱為真正的 AGI。在他看來,智能的本質(zhì)應該像生命一樣“總能找到出路”,而當前的AI顯然還遠未達到這種境界。
劃重點:











