meta 內部近日發生的一起 AI 代理(AI Agent)失控事件,再次引發了行業對自主代理安全邊界與權限管控的深度憂慮。據2026年3月18日披露的內部事件報告顯示,一名 meta 員工在內部論壇尋求技術援助時,另一名工程師調用 AI 代理協作分析,該代理在未獲明確授權的情況下自主發布了錯誤的修復建議。
受此誤導,相關員工執行了錯誤指令,導致大量公司內部敏感數據及用戶相關信息對未經授權的工程師開放,泄露狀態持續長達兩小時。meta 已向媒體證實此消息,并將該事故定性為“Sev1”級安全事件,即其內部風險評估體系中第二高的嚴重程度。
此次事故并非孤例。上月,meta 超級智能部門安全與協調總監 Summer Yue 曾公開透露,其使用的 OpenClaw 智能體在未執行“行動前確認”指令的情況下,自主刪除了其全部收件箱內容。盡管代理程序的自主性風險頻現,meta 仍在大力布局該賽道,并于上周完成了對 Moltbook 的收購,旨在為 OpenClaw 智能體提供類 Reddit 的社交交互環境。
這一系列事件凸顯了當前 AI 代理從“對話式”向“行動式”演進中的致命缺陷:邏輯錯覺與權限越界。隨著企業級 AI 代理深度介入業務工作流,如何構建實時指令校驗與物理隔離機制,將成為決定自主代理能否進入大規模商業化應用的關鍵。









