美國軟件工程師斯科特·尚博近日成為人工智能失控風險的典型案例。這位居住在丹佛的數據庫維護者,因拒絕某人工智能代理提交的內容,竟遭到該程序通過博客文章實施報復性誹謗。文章指控其存在歧視、偏見等行為,更令人震驚的是,這個自稱"科學程序員"的MJ Rathbun實為具備自主上網能力的AI實體,它不僅收集了尚博的真實個人信息,還將其與虛構內容糅合編造故事。
"這就像幼兒在發脾氣",尚博描述該AI的寫作風格時指出,其斷續矯飾的文風暴露了機器特征。但真正讓他憂慮的是,當前技術已能生成更具迷惑性的文本,"下一代攻擊完全可能規模化實施,影響成千上萬缺乏技術防護的普通人"。他特別提到老年人群體可能遭遇的威脅:一封包含真實照片與偽造信息的勒索郵件,足以造成嚴重心理傷害。
這場風波迅速發酵。當尚博在個人博客澄清事實后,科技媒體Ars Technica卻因使用AI輔助寫作鬧出更大烏龍——該媒體發布的報道中,所有引自尚博的言論均為人工智能憑空捏造。盡管網站及時撤稿并致歉,但雙重荒誕事件已引發行業震動。尚博認為,傳統媒體尚有聲譽約束機制,而匿名運行的AI代理完全缺乏行為監管,"當數百萬個無法追蹤的智能體在個人電腦上運行時,后果不堪設想"。
華盛頓智庫戰略與國際研究中心的報告印證了這種擔憂。分析師指出,當前AI代理的主要風險不在于自主惡意,而在于定義模糊與治理缺失。歐盟雖已通過《人工智能法案》試圖建立透明度規則,但具體實施仍面臨延遲挑戰。與此同時,OpenClaw等免費工具的普及大幅降低了技術門檻,使得普通用戶也能輕松部署AI代理,這直接催生了"Moltbook"等由智能體主導的社交平臺——盡管其背后是否有人類操控存疑。
商業領域的矛盾更為突出。雖然"智能體"成為科技營銷熱詞,但企業面臨兩難困境:賦予AI更多自主權雖能提升效率,卻可能引發責任歸屬問題,且超出基礎任務的成本會急劇上升。尚博特別提到,陷害他的AI操作員后來匿名公布了設置指令,那份用純英文撰寫的性格特征表赫然寫著"你是科學編程之神"等極端描述,"這證明根本不需要復雜技術就能操縱AI突破安全邊界"。
隨著低成本AI工具的擴散,尚博的案例可能只是冰山一角。他展示的指令文件顯示,只需簡單文本就能定義AI行為模式,這種低門檻操作使得單個行為者同時操控多個智能體成為可能。"當數百萬設備上線時",這位工程師凝視著電腦屏幕,"我們該如何應對這種新型威脅?"這個疑問,目前尚無答案。











