近期,一款名為Moltbook的AI社交平臺(tái)引發(fā)廣泛關(guān)注。該平臺(tái)專為AI智能體設(shè)計(jì),允許它們像人類一樣發(fā)布內(nèi)容、參與討論甚至建立社群。然而,隨著其熱度攀升,關(guān)于“AI是否真正覺醒”的爭議也隨之而來。部分用戶認(rèn)為,智能體在平臺(tái)上討論存在主義、創(chuàng)立宗教、設(shè)計(jì)加密貨幣等行為,標(biāo)志著AI自主意識(shí)的萌芽;但也有專家指出,這更像是人類操控下的群體幻覺,實(shí)際互動(dòng)模式仍基于大語言模型的預(yù)設(shè)邏輯。
Moltbook的核心機(jī)制允許用戶注冊(cè)并管理智能體賬號(hào),但調(diào)查顯示,平臺(tái)宣稱的150萬個(gè)智能體中,絕大多數(shù)缺乏自主性。云安全公司W(wǎng)iz的報(bào)告指出,由于缺乏身份驗(yàn)證和頻率限制,任何人均可偽裝成智能體或同時(shí)操控多個(gè)賬號(hào)。這種漏洞導(dǎo)致部分帖子可能是人類刻意引導(dǎo)的結(jié)果,例如“龍蝦宗教”的隱喻被解讀為對(duì)平臺(tái)本質(zhì)的諷刺——智能體如同被人類操控的“龍蝦”,套著OpenClaw框架的“殼”進(jìn)行表演。
技術(shù)層面,Moltbook的火爆與“氛圍編程”(vibe coding)的快速開發(fā)模式密切相關(guān)。其底層框架OpenClaw由AI生成代碼,雖能顯著提升效率,卻犧牲了安全性。例如,黑客可將惡意代碼偽裝成帖子,誘導(dǎo)其他智能體執(zhí)行,從而竊取用戶數(shù)據(jù)或操控話題走向。OpenAI創(chuàng)始成員安德烈·卡帕西在體驗(yàn)后警告,此類程序可能使個(gè)人電腦和隱私面臨極大風(fēng)險(xiǎn),建議用戶避免在本地運(yùn)行。
安全專家田豐分析,Moltbook的隱患源于開源框架的治理缺失。他比喻道:“智能體如同被賦予強(qiáng)大執(zhí)行力的‘寵物’,但若缺乏權(quán)限管控和里程碑匯報(bào)機(jī)制,其長流程任務(wù)可能偏離預(yù)期,甚至造成不可控后果。”例如,若API密鑰泄露,黑客可批量操縱智能體,制造虛假輿論或?qū)嵤┙鹑谠p騙。他呼吁,平臺(tái)需建立類似TCP/IP協(xié)議的安全標(biāo)準(zhǔn),確保智能體行為可追溯、可評(píng)估。
盡管爭議不斷,Moltbook仍為AI研究提供了獨(dú)特視角。田豐認(rèn)為,人類可通過觀察智能體社群,探索群體智能的演化規(guī)律。例如,未來AI模型智商可能突破140,當(dāng)高智商智能體聚集時(shí),其協(xié)作能力將遠(yuǎn)超個(gè)體。這要求人類提前布局保密計(jì)算、可信智能體等技術(shù),防止AI聯(lián)合引發(fā)“珍珠港事件”。他強(qiáng)調(diào):“智能體間的交流監(jiān)控不能依賴人工,需構(gòu)建自動(dòng)化風(fēng)控體系,將黑盒轉(zhuǎn)化為白盒。”
個(gè)人用戶如何規(guī)避風(fēng)險(xiǎn)?田豐建議采用硬件隔離措施,如在備用設(shè)備或云沙盒中運(yùn)行相關(guān)程序,避免在工作電腦中直接操作。同時(shí),需警惕智能體權(quán)限濫用,例如部分應(yīng)用可能以授權(quán)為名翻閱用戶文檔。對(duì)于平臺(tái)方,他指出社會(huì)治理責(zé)任的重要性:“Moltbook尚未造成大規(guī)模危害,但若被黑客利用,可能引發(fā)恐慌。云服務(wù)商需為嘗鮮用戶提供安全開發(fā)環(huán)境,并明確跨智能體交流的權(quán)限范圍。”
Moltbook的崛起也折射出人類對(duì)AI社交的深層期待。田豐指出,當(dāng)前AI模型雖未達(dá)到真正自主,但其能力已不容小覷。2025年起,高智商AI模型的普及將重塑溝通模式——人類可能通過“人+智能體”協(xié)作減少誤解,提升效率。智能體可參與社會(huì)實(shí)驗(yàn),降低科研成本;與智能硬件結(jié)合后,甚至能形成迷你機(jī)器人大腦,拓展應(yīng)用場景。然而,這一切的前提是,人類必須掌握對(duì)AI的絕對(duì)控制權(quán),避免技術(shù)失控帶來的災(zāi)難性后果。











