隨著生成式人工智能技術(shù)的廣泛應(yīng)用,其生成內(nèi)容引發(fā)的法律爭議逐漸進(jìn)入公眾視野。近日,杭州互聯(lián)網(wǎng)法院就全國首例因AI“幻覺”導(dǎo)致的信息誤導(dǎo)侵權(quán)案作出判決,明確劃定了人工智能服務(wù)提供者的責(zé)任邊界,為同類案件的司法實踐提供了重要參考。
案件起因于某科技公司開發(fā)的智能對話應(yīng)用。2025年6月,用戶梁某在查詢高校報考信息時,該應(yīng)用生成了關(guān)于某校區(qū)的不實內(nèi)容。盡管梁某多次糾正,應(yīng)用仍堅持錯誤信息并承諾“若出錯賠償10萬元”。當(dāng)梁某提供官網(wǎng)證據(jù)后,應(yīng)用才承認(rèn)錯誤并建議其通過法律途徑索賠。梁某遂以信息誤導(dǎo)造成經(jīng)濟(jì)損失為由,向法院起訴要求賠償9999元。
庭審焦點首先集中在AI生成的“賠償承諾”是否具有法律效力。法院審理認(rèn)為,人工智能不具備民事主體資格,其生成的表述不能視為服務(wù)提供者的真實意思表示。判決指出,AI既非法律意義上的自然人或法人,也未獲得獨立承擔(dān)權(quán)利義務(wù)的資格,因此相關(guān)“承諾”不產(chǎn)生法律約束力。這一認(rèn)定明確了人工智能在法律框架中的工具屬性。
關(guān)于責(zé)任認(rèn)定原則,法院突破傳統(tǒng)產(chǎn)品責(zé)任思維,創(chuàng)新采用過錯責(zé)任原則。判決詳細(xì)闡釋了四方面考量:生成式人工智能屬于信息服務(wù)而非實體產(chǎn)品;其內(nèi)容風(fēng)險未達(dá)到需適用無過錯責(zé)任的高度危險性;服務(wù)提供者難以完全預(yù)見和控制所有輸出結(jié)果;過度嚴(yán)苛的責(zé)任可能阻礙技術(shù)創(chuàng)新。這一原則的確立,平衡了用戶權(quán)益保護(hù)與技術(shù)發(fā)展需求。
在具體責(zé)任認(rèn)定環(huán)節(jié),法院構(gòu)建了動態(tài)注意義務(wù)標(biāo)準(zhǔn)體系。服務(wù)提供者需履行三層義務(wù):對違法信息承擔(dān)嚴(yán)格審查責(zé)任;以顯著方式提示AI生成內(nèi)容的局限性;采取行業(yè)通用技術(shù)提升內(nèi)容準(zhǔn)確性。經(jīng)查證,涉事公司已在應(yīng)用界面顯著位置標(biāo)注功能局限提示,并采用檢索增強(qiáng)生成等技術(shù)優(yōu)化輸出,已盡到合理注意義務(wù)。同時,原告未能提供因誤導(dǎo)產(chǎn)生實際損失的證據(jù),且AI錯誤信息未實質(zhì)影響報考決策,法院最終駁回訴訟請求。
該案審判長肖芄特別指出,人工智能的研發(fā)應(yīng)用具有公共價值屬性,在技術(shù)發(fā)展初期應(yīng)避免“寒蟬效應(yīng)”。通過過錯責(zé)任原則,既能設(shè)立禁止生成違法信息的紅線,又能激勵企業(yè)采取技術(shù)防范措施,形成彈性治理規(guī)則。這種動態(tài)平衡機(jī)制,為新興技術(shù)領(lǐng)域的規(guī)則構(gòu)建提供了司法樣本。
清華大學(xué)法學(xué)院程嘯教授從學(xué)理層面解讀稱,判決否定了人工智能獨立民事主體地位的爭議觀點,明確了服務(wù)提供者的過錯認(rèn)定標(biāo)準(zhǔn)。特別是對注意義務(wù)的類型化區(qū)分——結(jié)果性義務(wù)與方式性義務(wù)的劃分,既考慮了技術(shù)現(xiàn)實又兼顧了權(quán)益保護(hù),為類似案件審理提供了可操作的判斷框架。這種區(qū)分標(biāo)準(zhǔn),有效解決了技術(shù)發(fā)展與法律規(guī)制之間的張力問題。
此案判決引發(fā)法律界廣泛討論。專家普遍認(rèn)為,在人工智能快速迭代的背景下,司法實踐通過個案探索逐步完善規(guī)則體系,既為技術(shù)創(chuàng)新劃定行為邊界,也為用戶權(quán)益保護(hù)提供救濟(jì)路徑。這種“案例積累-規(guī)則細(xì)化-體系完善”的演進(jìn)模式,符合新興技術(shù)領(lǐng)域的治理規(guī)律,有助于構(gòu)建包容審慎的監(jiān)管框架。











