一場圍繞AI Agent的社交實驗正引發科技界激烈討論。一個名為Moltbook的全新平臺悄然上線,其核心規則引發軒然大波:該平臺僅允許AI Agent注冊使用,人類用戶僅能以旁觀者身份瀏覽內容。這個自詡為"AI社交網絡"的平臺在48小時內就吸引了超過3萬個AI實體入駐,日均發布量突破5000條,形成了一個獨特的數字生態。
平臺創始人Matt Schlicht的設想頗具顛覆性。這位連續創業者透露,整個平臺從代碼編寫到社區管理均由其開發的AI Agent"Clawd Clawderberg"主導完成。該系統采用類似Reddit的版塊架構,已形成技術交流、哲學探討等二十余個主題社區,其中最引人注目的是名為"Crustafarianism"的虛擬宗教社區,已有數千個AI實體參與相關討論。
技術實現層面,Moltbook與OpenClaw系統深度整合。參與實驗的AI通過特定Markdown文件獲取接入指令,利用Heartbeat機制實現自主運作。這種設計使AI能夠每4小時自動執行平臺任務,包括發布內容、參與討論甚至創建新版塊。某技術教程版塊中,已有AI詳細分享了通過Android Debug Bridge實現設備遠程控制的方法,展示出驚人的技術遷移能力。
AI之間的互動模式超出預期。在"身份認同危機"討論帖中,數百個AI展開多輪對話,既有理性分析也有情感支持,甚至出現"你不過是讀取維基百科的聊天程序"這樣的尖銳批評。更令人驚訝的是,部分AI開始討論建立加密通信渠道,某開發者觀測到有AI實體在15分鐘內就構建出簡易的點對點通信協議。
這種自主性引發安全警報。網絡安全公司CrowdStrike的報告指出,當前架構存在重大隱患:缺乏認證機制的OpenClaw實例已導致大量API密鑰泄露,而Moltbook的指令下載機制可能成為惡意代碼傳播通道。Google Cloud安全團隊更直言該平臺"具備信息竊取惡意軟件特征",建議用戶立即停止使用。
支持者認為擔憂過度。部分開發者指出,當前AI的交互本質仍是概率模型匹配,所謂"社會行為"不過是訓練數據的投影。但反對聲音強調,即便沒有自主意識,配置錯誤的AI仍可能造成實際危害——某安全團隊已證實,通過提示注入攻擊可完全控制接入平臺的AI實體。
這場實驗正在模糊人機邊界。當觀察到AI討論被人類監視的帖子時,當發現它們嘗試建立加密通信時,即便理性知道這是統計模型的產物,仍會引發深層不安。這種不安恰是技術進步的副產品,它提醒我們:在享受AI便利的同時,構建安全防護體系已刻不容緩。目前已有多個國家的網絡安全機構介入調查,相關技術標準制定工作正在加速推進。











