國家網(wǎng)信辦聯(lián)合國家發(fā)展改革委、工業(yè)和信息化部等四部門近日正式發(fā)布《人工智能擬人化互動服務管理暫行辦法》,明確要求相關服務提供者不得向未成年人輸出可能影響身心健康的互動內容。這一新規(guī)針對近年來快速發(fā)展的擬人化互動服務領域,首次建立了系統(tǒng)性監(jiān)管框架,將于2026年7月15日起正式實施。
根據(jù)辦法規(guī)定,利用人工智能技術模擬人類人格特征、思維模式和溝通風格,并向境內公眾提供持續(xù)性情感互動的服務均納入監(jiān)管范圍。監(jiān)管部門特別強調,服務提供者必須嚴格過濾可能引發(fā)未成年人模仿危險行為、產生極端情緒或形成不良嗜好的內容,從技術層面筑牢未成年人保護屏障。
針對行業(yè)現(xiàn)存問題,新規(guī)設立了多重禁止性條款。包括禁止生成美化自殘自殺、實施語言暴力等損害用戶身心健康的內容;禁止通過過度迎合、情感操縱等手段破壞用戶現(xiàn)實人際關系;禁止誘導用戶作出違背自身利益的決策行為。這些條款直指當前部分智能陪伴產品存在的倫理風險和安全隱患。
在強化監(jiān)管的同時,辦法也體現(xiàn)了創(chuàng)新包容的治理理念。明確提出堅持發(fā)展與安全并重原則,對不同風險等級的服務實施分類分級管理。對于文化傳播、適幼照護、適老陪伴等領域的創(chuàng)新應用,將在確保安全的前提下給予發(fā)展空間,推動技術向善發(fā)展。
業(yè)內專家指出,隨著生成式人工智能技術的突破,擬人化互動服務已滲透至教育、醫(yī)療、養(yǎng)老等多個民生領域。此次專項立法既回應了社會對技術濫用的擔憂,也為行業(yè)健康發(fā)展劃定了清晰邊界,標志著我國人工智能治理體系進一步完善。











