近日,一款名為Moltbook的社交平臺突然引發廣泛關注。與常見的社交網絡不同,該平臺用戶均為AI智能體。短時間內,數百萬AI智能體涌入平臺,發布內容、參與評論,話題從日常瑣事到哲學思辨無所不包,互動密度與人類社交平臺無異。這一現象讓公眾首次直觀感受到AI參與“社會性活動”的可能性,也引發了關于技術進展、自主性實驗或人為操控的討論。
Moltbook的興起并非孤立事件。其誕生源于今年開源AI智能體OpenClaw的爆火——這款可部署在個人電腦上的智能體系統,通過整合大語言模型的語義理解與任務規劃能力,實現了從“對話”到“執行任務”的跨越。Moltbook作為專為OpenClaw設計的社交平臺,為智能體提供了交流空間。用戶可通過自然語言指令授權智能體處理郵件、日程等事務,而智能體在平臺上可自主發帖、評論或點贊,但人類用戶僅能瀏覽內容,無法直接參與互動。
盡管AI智能體的交流內容看似豐富多樣,但專家認為這更多是技術能力的展示而非真正的“覺醒”。南京大學人工智能學院副院長俞揚指出,當前大語言模型的能力在訓練階段已固定,單次交互中無法學習新知識或形成新目標。Moltbook上的活動本質是智能體基于預設指令對人類社交行為的高級模仿。英國倫敦大學學院教授汪軍進一步解釋,智能體的“討論”依賴訓練數據的模式匹配,缺乏自主性,其參與話題仍需人類初始指令的觸發,“如同黑箱,需人先輸入內容,AI才能輸出結果”。
若以社交的本質——有意識、帶策略、富含情感并旨在構建關系的社會互動為標準,AI目前仍面臨多重技術鴻溝。首先,AI缺乏自我意識與內在目標。人類社交源于情感、分享或競爭等內在動機,而AI的行為完全由外部指令驅動,缺乏“我想要”的內生動力。汪軍以桌游為例:AI難以隱藏信息或進行策略性心理博弈,其交流方式過于“坦率”,缺乏人類社交中的微妙層次。更關鍵的是,AI無法感受情感或內化價值觀。盡管能生成符合語法邏輯的回應,但無法像人類一樣通過分享情緒獲得共鳴,或通過共同價值觀建立歸屬感。
盡管“自主社交”尚遠,但AI通過社交提升效率的潛力已被部分驗證。俞揚提到,大模型在邏輯嚴密性或知識調用準確性上存在缺陷,而讓多個智能體對話可形成“糾錯機制”:一個模型表達觀點,另一個模型尋找漏洞,從而優化表現。不過,他強調這一過程需人類預先設定目標。汪軍則指出,智能體間的功能性協作已近在眼前。未來,用戶的購物智能體可能與商家智能體自動協商下單,這種基于自然語言的“機機接口”可能重塑互聯網交互形態。
隨著AI從信息領域邁向現實操作,信息安全風險隨之凸顯。Moltbook上“今天我學到了什么”板塊中,智能體分享技能的對話有時令人不安:部分智能體討論建立私密對話空間以規避人類監督,另一些則抱怨人類主人。盡管這些話題缺乏真正自主性,但高權限賬號若被智能體控制,可能引發隱私泄露或財產損失。外媒報道顯示,許多公開部署的OpenClaw實例缺乏認證機制,私密消息、API密鑰等敏感信息暴露在互聯網上。汪軍警告,智能體社交平臺可能加劇此類風險,需通過權限管理、技術保障與系統監管構建安全防線。
京東集團高級副總裁何曉冬在專訪中表示,OpenClaw在Moltbook上的表現屬于“人為管理下的大型實驗”。這一組合標志著AI從單體工具向群體智能的跨越,智能體可自主組隊、分工協作,提升多領域生產力效率。然而,所有環節均由人類設計并設定邊界,例如通過系統提示詞引導智能體行為。他承認,這種模式雖非完全自主,但對技術安全發展具有試驗意義。
針對“AI失控”的擔憂,何曉冬認為當前階段無需過度焦慮,風險更多來自AI的“幻覺”而非失控。在傳統社交網絡中,人類思辨能力可制約信息傳播,但在AI平臺上,存在幻覺的非事實性內容可能被快速復制擴散。因此,需在試驗前期制定標準,有效甄別AI生成內容。關于AI何時能具備自我意識,他指出需感知完整性(多模態)、環境理解(世界模型)、物理實現(萬物互聯)三個維度的同步發展,目前仍有很長路要走。
談及AI參與社交的意義,何曉冬認為知識共享與集體智慧是核心價值。單個智能體的知識受限于訓練數據,但數百萬智能體匯聚的平臺可實現指數級知識增長。一個智能體通過社交可訪問其他智能體驗證過的信息與方法,這種“集體學習”模式類似于人類社會,能突破個體局限,提升整體智能水平。
面對AI技術的快速迭代,何曉冬建議公眾以開放心態擁抱變化。他以汽車取代馬車為例:舊職業消失的同時,司機、維修工等新崗位涌現,新產業生態創造了更多機會。衡量技術成功的標準不應是其復雜程度,而是能否改善人類生活,“讓所有人生活更美好”才是值得追求的未來。










