杭州互聯網法院近日就全國首例因生成式人工智能“幻覺”引發的侵權糾紛作出判決,這一司法實踐迅速成為科技與法律領域熱議的焦點。案件不僅首次以司法裁判回應了人工智能內容生成技術帶來的法律挑戰,更通過清晰的裁判邏輯為AI產業劃定了責任邊界,為行業規范發展提供了重要制度參考。
2025年6月,高考生梁某在使用某科技公司開發的AI應用查詢高校信息時,遭遇了戲劇性一幕。該AI在回答某高校校區設置問題時,虛構了一個并不存在的主校區。當用戶指出錯誤時,系統不僅未修正信息,反而聲稱“若內容有誤將賠償10萬元”,甚至建議用戶向法院起訴索賠。這一系列操作最終導致梁某以“誤導報考”為由提起訴訟,要求科技公司賠償9999元損失。
庭審焦點集中在AI生成的“賠償承諾”是否具有法律效力。法院明確指出,根據現行《民法典》,民事主體僅包括自然人、法人和非法人組織,人工智能既不具備生物學意義上的主體資格,也未被法律賦予獨立民事地位。法官強調,涉案“承諾”本質是算法基于訓練數據隨機生成的文本,既不代表企業真實意愿,也不構成法律意義上的意思表示。社會公眾不應對此類自動生成內容產生合理信賴。
在責任認定方面,法院創新性地構建了過錯責任框架。判決認定生成式AI服務屬于《生成式人工智能服務管理暫行辦法》規制的“服務”范疇,而非傳統“產品”,因此適用過錯責任原則而非嚴格產品責任。這一認定基于四方面考量:AI服務缺乏固定質量標準、生成內容危險性較低、企業難以完全預見輸出結果、過度追責可能抑制技術創新。經審查,科技公司已在用戶協議和交互界面顯著提示AI局限性,并采取檢索增強生成(RAG)等技術優化輸出,最終因無法證明實際損害與因果關系,法院駁回原告訴請。
該判決釋放出三重行業信號。首先,明確劃定AI工具屬性邊界,防止法律人格泛化傾向,避免企業為算法不可控行為承擔無限責任。其次,確立“過錯責任+動態注意義務”的治理模式,既要求企業采取技術防范措施,又為創新保留彈性空間。最后,通過司法倡導形成審慎使用AI的社會文化,提醒公眾當前大模型仍屬于文本輔助工具,關鍵決策需多方驗證。
法律專家指出,此案為AI治理提供了“中國方案”。在技術快速迭代背景下,司法裁判既需守住安全底線,又要避免過度規制阻礙創新。判決通過區分服務與產品責任、明確企業注意義務標準,在用戶權益保護與技術發展需求間找到了平衡點。這種“發展型監管”思路,或將影響后續AI相關立法與司法實踐走向。
隨著生成式AI加速滲透教育、醫療、金融等領域,類似糾紛可能持續涌現。本案判決提醒行業,技術中立不等于責任免除,企業需在算法優化、風險提示、投訴處理等方面建立全流程合規體系。對于普通用戶而言,保持對AI內容的批判性思維,在重要決策中堅持人工復核,仍是規避風險的有效方式。









