1 月 28 日消息,在開發(fā)者問答環(huán)節(jié),OpenAI 首席執(zhí)行官山姆 · 奧爾特曼發(fā)布警告:由于 AI 智能體的帶來的便利性極高,人們正忽略潛在的災難性后果,在缺乏必要安全基礎設施的情況下,草率賦予 AI 過多控制權。
援引博文介紹,奧爾特曼將這種心態(tài)形容為“YOLO”(活在當下 / 人生苦短,及時行樂),并擔憂社會可能會因此“夢游”般地滑入一場信任危機。
為了佐證這一觀點,奧爾特曼分享了自己的親身經(jīng)歷。他曾立誓不給 OpenAI 的編程模型 Codex 賦予計算機完全訪問權限,然而這一“安全防線”僅維持了兩個小時。
奧爾特曼承認,由于 AI 智能體表現(xiàn)得實在太“講道理”且能極大提升效率,他迅速妥協(xié)并解除了限制。他推測大多數(shù)用戶也會做出同樣的選擇,而這種普遍的松懈可能導致安全漏洞或對齊問題被長期忽視,直到危機爆發(fā)。
這種擔憂在開發(fā)者群體中已初現(xiàn)端倪。一名 OpenAI 開發(fā)者此前在社交媒體 X 上透露,他現(xiàn)在完全依賴 AI 編寫代碼。該開發(fā)者預測,企業(yè)很快也會采取類似模式,最終導致人類徹底失去對自己代碼庫的理解與控制能力。











