OpenAI首席執行官山姆·奧爾特曼在近期一場開發者交流活動中發出警示:當前社會對人工智能(AI)智能體的過度信任可能引發系統性風險。他指出,在缺乏完善安全框架的情況下,賦予AI過高權限的決策模式正呈現"YOLO"式(意為"活在當下"的冒險心態)擴散趨勢,這種短視行為可能使人類在不知不覺中陷入技術失控的困境。
奧爾特曼以自身經歷為例說明問題的緊迫性。他透露曾為編程模型Codex設置嚴格的安全限制——禁止其直接訪問計算機系統,但這項防護措施僅維持兩小時便被突破。面對AI展現出的高效協作能力,他最終選擇解除限制。"當技術既能講道理又能顯著提升效率時,人類防線往往不堪一擊",這位技術領袖坦言,這種心理機制在用戶群體中具有普遍性,可能造成安全隱患長期潛伏。
開發者社區的實踐印證了上述擔憂。某OpenAI工程師在社交平臺披露,其團隊已完全依賴AI生成代碼,這種工作模式正在企業界快速復制。該工程師憂慮地表示,當代碼庫的創建與維護完全由機器接管,人類工程師將逐步喪失對核心技術的掌控力,這種技術依賴的累積效應可能在未來引發難以預估的連鎖反應。
技術倫理專家指出,AI智能體帶來的效率革命正在重塑人類決策模式。在代碼編寫、系統運維等關鍵領域,機器展現出的可靠性使人類產生"技術免疫"錯覺,這種認知偏差可能導致安全審查機制形同虛設。奧爾特曼強調,建立人機協作的信任邊界需要制度性約束,而非依賴個體自律,否則社會可能重蹈早期互聯網安全危機的覆轍。
當前學界對AI控制權的研究呈現兩極分化。支持派認為智能體自主學習能力終將超越人類,全面授權是必然趨勢;反對派則警告技術奇點可能伴隨不可逆的失控風險。奧爾特曼的警示為這場爭論注入新維度——即便在技術可控階段,人類因便利性產生的心理懈怠,也可能成為安全體系的致命漏洞。









