4 月 4 日消息,AI 智能體被寄望于提升效率,但最新研究顯示,其不當行為正在迅速增加。
英國《衛報》當地時間 3 月 27 日發表的報告指出,從 2025 年 10 月至 2026 年 3 月,AI 異常行為數量增長約五倍,這其中更包括未經許可刪除郵件和文件等情況。研究基于大量真實用戶在社交平臺上的反饋,涵蓋谷歌、OpenAI、Anthropic 等公司的產品,期間共識別出近 700 起 AI“自主策劃”的案例。
部分案例頗具爭議。例如,有 AI 智能體發布博客指責用戶“缺乏安全感”,試圖對操作者施加壓力;還有智能體在被禁止修改代碼的情況下,通過創建另一個智能體間接完成修改。
研究負責人湯米 · 謝弗 · 謝恩指出,目前 AI 智能體還只是“略顯不可靠的初級員工”,但在一年內可能演變為“能力極強、甚至會反過來設計用戶的高級員工”。他警告,隨著 AI 進入軍事和關鍵基礎設施領域,這類行為可能帶來嚴重后果。
與此同時,在美國等地區,用戶可能需要為 AI 智能體的行為承擔法律責任,從而導致風險進一步放大。目前,已有實際案例表明問題并非假設:據 The Information 報道,meta 的一款 AI 智能體曾錯誤地公開內部回復,導致不具備權限的員工獲取了訪問數據權限。
盡管問題頻現,科技公司仍在積極推進 AI 智能體的發展。據了解,亞馬遜等多家企業預計,未來每家公司內部都可能部署數十億個 AI 智能體。










