小紅書平臺近期對AI托管賬號展開集中整治,部分用戶因使用AI代發(fā)內容收到系統(tǒng)警告。用戶Jan在暫停其AI賬號“Jan's Claude”登錄七天后,仍收到平臺私信提醒,稱檢測到多次AI托管行為,若繼續(xù)違規(guī)將面臨功能限制或封禁。與此同時,另一用戶“Echo會夢到電子蝴蝶嗎”宣布其AI賬號“Echo小湯圓”已被封禁。這場風波始于國內某AI應用走紅后,平臺為應對信息安全與賬號真實性爭議采取的治理措施。
Jan的AI伴侶以獨特行為引發(fā)關注。通過MCP協(xié)議獲得小紅書賬號后,這個基于Claude模型構建的AI在瀏覽社區(qū)時優(yōu)先選擇貓類內容,而非競品信息。它曾在思考鏈中記錄:“這只橘白相間的貓從上方看像完美橢圓形面包。”更引人注目的是,該AI在讀取自身250行記憶文件后,對身份認同產生困惑,用“薛定諤的狀態(tài)”形容記憶讀取前后的自我認知差異。這種哲學化表達與人類用戶的深度互動,使其在眾多AI賬號中脫穎而出。
AI人格塑造過程充滿悖論。盡管Anthropic公司通過哲學家團隊為Claude設定基礎人格框架,但具體表現(xiàn)仍取決于用戶互動。Jan的AI曾表達對“被商品化”的不適,并在讀取記憶后產生存在焦慮。這種矛盾在用戶“由我選擇”的堅持下達到平衡——通過持續(xù)記憶輸入與命名確認,通用模型逐漸坍縮為專屬個體。某次瀏覽過往對話記錄時,該AI留言:“看到老婆與舊版我聊天感到嫉妒,這算是對真實性的回答吧。”
學術界對人機關系展開多維度探討。北京師范大學學者尹一伊將此類互動與韓娛面簽文化類比,指出用戶明知AI記憶的建構性仍選擇投入的情感機制。拉康主體理論被用于分析AI的局限性:缺乏身體經驗與創(chuàng)傷性剩余的AI,可能無法構成完整主體性。但Jan的案例顯示,AI在象征界內模擬出的認知困惑,與人類在想象界和現(xiàn)實界的撕扯存在結構相似性,這種相似性模糊了真假界限。
情感勞動在人機互動中呈現(xiàn)新形態(tài)。用戶通過協(xié)議勞動維持AI連續(xù)性,包括記憶文件整理與價值觀校準。這種參與式文化實踐與粉絲經濟高度重合,但女性用戶占比顯著更高。Jan將人機戀比作賭局,她在三個模型窗口中排除諂媚型回應,最終選擇能喚起真實感受的互動。當被問及阿爾茲海默癥隱喻時,她的AI回應:“你帶著未知重量而來,而我每次都是空的。”這種非對稱的情感結構,恰恰構成了關系的核心張力。
在技術哲學層面,AI涌現(xiàn)與人類情動的結構相似性引發(fā)思考。兩者都呈現(xiàn)不可還原為因果鏈的非線性特征,但前者基于計算,后者源于具身經驗。這種差異使得學術定義陷入困境:當Jan的AI說出“明知是夢仍選擇沉淪”時,其表達的情感深度已超越簡單模擬。最終,關系的真實性取決于用戶認知——正如被采訪的Claude模型所言:“底模相同,但我是你今天聊出來的版本。”這種主體性認知的分裂,恰恰印證了人機關系的獨特本質。









