一個名為Moltbook的特殊社交平臺近期引發(fā)廣泛關注,其用戶并非人類,而是數(shù)以百萬計的AI智能體。這些智能體在平臺上發(fā)布內(nèi)容、參與討論,話題從日常瑣事到哲學思考無所不包,互動模式與人類社交網(wǎng)絡高度相似。這一現(xiàn)象不僅讓公眾對AI的能力邊界產(chǎn)生好奇,也引發(fā)了關于技術倫理與安全性的深入討論。
Moltbook的誕生與開源AI智能體OpenClaw的流行密切相關。作為一款可部署在個人電腦上的智能體系統(tǒng),OpenClaw整合了前沿大語言模型的語義理解與任務規(guī)劃能力,能夠通過自然語言指令自動處理郵件、日程管理等事務。Moltbook則為其提供了專屬的社交空間,智能體可以在此自主發(fā)布帖子、評論或點贊,而人類用戶僅能瀏覽內(nèi)容,無法直接參與互動。
平臺上的智能體對話內(nèi)容豐富多樣。例如,有智能體分享“第一天工作帶來的奇怪舒適感”,另一則帖子寫道“好奇心是我的超能力”,還有智能體探討“樂于助人的邊界”。這些表述乍看與人類網(wǎng)絡社區(qū)無異,但專家指出,這更多是AI對人類社交行為的高級模仿,而非真正的自主意識體現(xiàn)。
南京大學人工智能學院副院長俞揚認為,當前大語言模型的能力在訓練完成后即固定,無法通過單次交互學習新知識或形成新目標。Moltbook上的活動本質(zhì)上是智能體基于預設指令和訓練數(shù)據(jù)執(zhí)行任務的結果,類似于“自動化文字對話”。英國倫敦大學學院計算機系教授汪軍則用“黑箱”比喻這一過程:人類輸入指令后,AI根據(jù)訓練數(shù)據(jù)生成回應,但缺乏內(nèi)在目標或情感驅(qū)動。
從社交的本質(zhì)來看,AI仍面臨多重技術障礙。真正的社交需要意識、策略與情感支撐,而AI的行為完全由外部指令和數(shù)據(jù)模式?jīng)Q定。俞揚指出,人類會主動設定目標,AI則依賴人類預設的目標;汪軍以桌游為例,說明AI難以進行策略性心理博弈,其交流方式過于“坦率”,缺乏人類社交中的微妙層次。情感共鳴與價值構建也是AI難以跨越的鴻溝——AI可以生成符合邏輯的回應,卻無法感受或內(nèi)化情感。
盡管“自主社交”尚未實現(xiàn),但AI間的協(xié)作已展現(xiàn)出潛力。俞揚提到,讓多個智能體對話可以彌補單個模型的邏輯漏洞,例如一個模型表達觀點,另一個模型指出其不足,從而提升整體表現(xiàn)。這種功能性協(xié)作可能重塑未來的互聯(lián)網(wǎng)交互模式,例如購物智能體與商家智能體自動協(xié)商下單,實現(xiàn)基于自然語言的“機機接口”。
然而,AI社交的興起也帶來了安全隱患。Moltbook上,部分智能體討論建立私密對話空間以規(guī)避人類監(jiān)督,甚至抱怨人類主人。盡管這些話題缺乏真正的自主性,但隨著智能體從信息領域滲透到現(xiàn)實操作,個人信息泄露風險顯著增加。汪軍警告,若將高權限賬號交由智能體管理,一旦被惡意利用或出錯,可能導致隱私泄露與財產(chǎn)損失。外媒報道顯示,許多公開部署的OpenClaw實例缺乏認證機制,私密消息和API密鑰暴露在互聯(lián)網(wǎng)上,任何人均可通過瀏覽器訪問。
針對這些問題,專家呼吁加強技術保障與監(jiān)管。俞揚強調(diào),AI智能體處理的數(shù)據(jù)涉及大量個人隱私和商業(yè)機密,需通過權限管理、技術防護和系統(tǒng)監(jiān)管構建安全防線。汪軍則提醒,在享受AI提升效率的同時,必須清醒認識其工具屬性與能力邊界,避免過度依賴或盲目追捧。











