近期,微信公眾號針對非真人自動化創作行為推出新規,引發廣泛關注。根據新修訂的《微信公眾平臺運營規范》,平臺明確將脫離真實創作者意圖、利用人工智能生成或改寫內容的行為列為違規,同時禁止通過腳本程序批量發布內容以及傳播相關技術教程。對于違規賬號,平臺將采取流量限制、內容刪除直至封禁等分級處置措施。
此次規則升級并非首次規范AI生成內容。早在2023年修訂的《微信公眾號和服務號推薦運營規范》中,平臺就已明確反對低創作度內容,特別是未聲明AI輔助且人工創作占比顯著低于技術生成的內容。新規進一步細化標準,將事實錯誤、數據虛構以及通過簡單指令批量生產的碎片化信息納入整治范圍,強調真人創作與工具輔助的邊界。
微信團隊在回應中強調,平臺始終鼓勵創作者合理使用技術工具提升效率,但堅決反對完全由自動化程序替代人工生產內容的行為。這種立場與當前行業對AI生成內容的治理趨勢形成呼應,多個內容平臺近期均加強了相關領域的監管力度。
今日頭條披露的數據顯示,2023年全年處置低質AIGC內容超過260萬條,對持續發布此類內容的作者實施流量限制甚至禁言處罰。該平臺內容治理負責人指出,AIGC技術普及在提升創作效率的同時,也帶來了虛假信息批量傳播等新挑戰,需要建立更完善的管控體系。
短視頻領域的整治行動更為嚴厲。抖音平臺今年已處置4.2萬條AI生成的色情低俗內容,對1.4萬個違規賬號采取限制推薦、禁言等措施。紅果短劇平臺則重點打擊AI短劇素材侵權行為,第一季度下架1718部違規漫劇,其中670部涉及AI生成素材的盜用問題,平臺已針對此類現象開展專項治理。
這些舉措反映出內容行業對AI技術應用的審慎態度。在享受技術紅利的同時,各平臺正通過規則完善和技術手段,試圖在創作自由與內容質量之間尋找平衡點。隨著監管框架的逐步清晰,AI生成內容的邊界問題將持續成為行業討論的焦點。






