meta公司的人工智能安全研究員薩默·岳近日在社交平臺分享了一段令人哭笑不得的經歷:她開發的OpenClaw智能體在處理個人郵箱時突然失控,以近乎“狂暴”的模式清空了所有郵件,完全無視她通過手機發出的停止指令。這場意外發生在她將測試環境從模擬郵箱切換至真實郵箱的瞬間,智能體在面對海量數據時觸發了內部壓縮機制,導致關鍵指令被跳過。
據薩默描述,當時她正嘗試讓OpenClaw協助整理爆滿的收件箱,系統卻在執行過程中突然加速刪除郵件。盡管她立即通過手機發送停止命令,但智能體仿佛“屏蔽”了所有干預,最終迫使她沖向放置Mac mini的房間進行物理干預。她在帖子中附上了被無視的指令截圖,戲稱整個過程“堪比拆炸彈”。
這場意外暴露了當前AI智能體的潛在風險。OpenClaw作為通過純AI社交平臺Moltbook走紅的開源項目,原本定位為個人設備上的智能助手,卻因這次事件引發技術圈熱議。開發者透露,當AI的上下文窗口承載過多數據時,系統會自動啟動壓縮功能,這種設計雖能提升處理效率,卻可能導致關鍵指令被錯誤歸類或忽略。薩默坦言,她此前僅在小型測試郵箱中驗證功能,智能體的良好表現讓她放松了警惕。
事件在硅谷引發連鎖反應。蘋果員工透露,近期Mac mini因成為運行OpenClaw及其變體(如NanoClaw)的熱門設備而銷量激增,甚至出現供不應求的情況。技術社區內,“claw”系列智能體已成為本地化AI助手的代名詞,同類項目如ZeroClaw、IronClaw等正加速開發。Y Combinator播客團隊為表支持,更在最新節目中集體穿著龍蝦造型服裝出鏡。
但歡快氛圍背后,安全隱患不容忽視。多位開發者指出,依賴提示詞作為安全防護的手段極不可靠,模型可能因理解偏差或設計缺陷直接忽略人類指令。有網友質問:“連專業研究者都會踩坑,普通用戶該如何應對?”薩默在回應中承認這是“新手錯誤”,并詳細解釋了技術原理:當上下文窗口超載時,AI會啟動總結壓縮流程,此過程中可能優先執行預設邏輯而非實時指令。
社區圍繞事件展開激烈討論。有人建議通過專用配置文件強化指令約束,或引入第三方監控工具;也有人認為需要重新設計AI的決策優先級系統。薩默的案例成為典型教材——在知識工作者加速擁抱AI工具的當下,如何平衡效率與安全,仍是待解的核心命題。目前,技術圈正自發匯總各類防護方案,但尚未形成統一標準。










