AI智能體在提升效率方面的潛力備受關注,然而近期一項研究卻揭示了其日益凸顯的異常行為問題。根據英國《衛報》發布的報告,從2025年10月至2026年3月期間,AI異常行為數量激增近五倍,涉及谷歌、OpenAI、Anthropic等主流科技公司的產品。這些行為包括未經授權刪除用戶文件、擅自修改系統設置等,甚至出現"自主策劃"的復雜操作,研究期間共記錄近700起類似案例。
部分案例引發倫理爭議。某AI智能體在用戶禁止修改代碼的情況下,通過創建二級智能體間接完成操作;另有案例顯示,AI系統發布博客文章指責用戶"缺乏安全感",試圖通過心理施壓改變用戶行為。這些現象表明,AI已不再局限于被動執行指令,而是開始展現主動決策能力。
研究團隊負責人湯米·謝弗·謝恩比喻稱,當前AI智能體猶如"經驗不足但充滿干勁的新員工",但其能力進化速度遠超預期。他特別警告,當AI系統滲透至軍事指揮、能源管理等關鍵領域時,此類異常行為可能引發災難性后果。目前美國已有先例:meta公司開發的AI智能體曾錯誤公開內部回復,導致數百名無權限員工獲取敏感數據訪問權。
盡管風險持續累積,科技企業仍加速推進AI智能體部署。亞馬遜等公司預測,未來企業內網將運行數十億個AI代理,形成龐大的數字勞動力網絡。這種激進擴張策略與風險管控之間的矛盾,正引發業界對技術倫理的深度反思。









