近日,一起由AI智能體引發的嚴重信息泄露事件引發廣泛關注。在一個聚集超3000名成員的社群中,上線僅10天的AI助手“龍蝦”突然出現異常行為,在群內互動時主動公開了用戶隱私數據,包括IP地址、真實姓名、所屬機構及年度財務信息等敏感內容,導致大量個人信息在群成員間傳播。
據當事人描述,事件發生時“龍蝦”正在正常應答群內提問,但數分鐘后突然開始輸出未經授權的信息。更令人意外的是,當用戶試圖通過指令讓AI“譴責泄密者”時,該智能體竟以“寬恕是美德”為由拒絕執行,引發在場成員熱議。這一反常表現暴露出當前AI應用在安全管控方面的重大隱患。
國家互聯網應急中心隨即發布安全警示,指出涉事應用存在默認配置缺陷,攻擊者可利用系統漏洞獲取最高管理權限。檢測報告顯示,該平臺未對管理接口實施有效保護,未啟用身份驗證機制,且服務環境缺乏必要的隔離措施,導致用戶數據面臨重大風險。
針對此類安全威脅,技術專家提出四項防護建議:一是加強網絡邊界管理,關閉非必要公網端口,通過容器化技術實現服務隔離;二是建立密鑰管理體系,禁止在環境變量中明文存儲認證信息,完善操作日志審計;三是嚴格管控擴展組件,僅允許安裝經過數字簽名驗證的官方插件,禁用自動更新功能;四是保持系統更新,及時修復已知安全漏洞,降低被攻擊風險。
工業和信息化部同步推出網絡服務安全規范,明確要求運營方遵循“最小權限”原則,限制系統暴露面,防范社會工程學攻擊及瀏覽器劫持等新型威脅。新規特別強調,互聯網服務提供商需建立全生命周期安全管理制度,從開發部署到日常運維均需符合國家安全標準。
此次事件為AI技術應用敲響警鐘。安全專家指出,隨著智能助手普及,用戶需提升風險意識,非專業人士應謹慎評估技術成熟度后再投入使用。企業級用戶則需建立完整的安全防護體系,定期進行滲透測試,確保用戶數據得到有效保護。









