杭州互聯網法院近日審結全國首例因生成式人工智能“幻覺”引發的侵權糾紛案,為人工智能服務責任認定提供了重要司法參考。該案聚焦AI生成不準確信息導致用戶權益受損時的責任劃分問題,法院通過深入分析AI技術特性、服務提供者義務及侵權構成要件,明確了生成式人工智能服務的法律邊界。
案件起因于某科技公司運營的生成式AI應用在回答用戶關于高校報考信息時,持續輸出錯誤內容并承諾賠償。2025年6月,用戶梁某在使用該應用查詢某高校校區信息時,AI多次提供不實信息,甚至在用戶糾正后仍堅持錯誤答復,并聲稱若內容有誤將賠償10萬元。當梁某提供官網信息證明AI錯誤后,該應用竟建議其通過法律途徑索賠。梁某遂以受到誤導為由,起訴要求科技公司賠償9999元。
法院審理重點圍繞三個核心問題展開:AI生成的承諾是否具有法律效力、侵權責任應適用何種歸責原則、服務提供者是否構成侵權。針對AI意思表示問題,法院明確指出,人工智能不具備民事主體資格,其生成的承諾不能視為服務提供者的真實意思表示。判決強調,AI缺乏法律人格,無法獨立承擔權利義務,且被告公司未通過任何形式授權AI代表其作出承諾,用戶對隨機生成的賠償內容不應產生合理信賴。
在歸責原則認定上,法院突破傳統產品責任框架,確立生成式AI服務適用過錯責任原則。判決認為,AI服務屬于信息處理范疇,與具有物理形態的產品存在本質區別。其生成內容不具有高度危險性,且服務提供者難以完全預見和控制所有輸出結果。若采用無過錯責任原則,將過度加重企業負擔,阻礙技術創新。法院特別指出,現行法律未將AI服務納入產品范疇,相關管理暫行辦法也明確其服務屬性,為過錯責任原則的適用提供了法律依據。
關于服務提供者是否侵權,法院構建了動態注意義務審查體系。首先,服務提供者對違法信息負有嚴格審查義務,必須確保不生成“有毒”有害內容;其次,需以顯著方式提示AI生成內容的局限性,包括功能局限告知、警示提醒等;最后,應采取行業通行技術措施提高內容準確性,如檢索增強生成技術。經審查,被告公司已在應用界面顯著位置提示AI功能局限,并采用多項技術提升輸出可靠性,已盡到合理注意義務。同時,原告未能證明實際損害發生,且AI錯誤信息未實質影響其報考決策,法院最終駁回訴訟請求。
該案主審法官肖芄表示,判決體現了發展與安全并重的司法理念。在人工智能技術快速發展階段,既需要嚴格禁止違法信息生成,設立行為紅線,也要避免過度苛責企業,為技術創新保留空間。通過過錯責任原則的適用,可以動態調整服務提供者的注意義務標準,形成適應技術發展的規則體系。法官特別提醒公眾,當前AI技術仍存在“幻覺”問題,其生成內容僅可作為參考,重要決策需多方驗證。
清華大學法學院教授程嘯評價稱,該判決具有重要理論和實踐價值。其明確了AI不具備民事主體資格的基本立場,厘清了服務與產品的法律界限,為同類案件審理提供了規范指引。判決提出的動態注意義務標準,既考慮了技術發展現實,也平衡了權益保護需求,展現了司法對新興技術的審慎包容態度。專家指出,隨著AI技術廣泛應用,此類糾紛將不斷增多,該案確立的裁判規則將為行業健康發展提供有力法治保障。











