生成式人工智能技術(shù)正深度融入日常生活,但隨之而來的“AI幻覺”問題——即生成內(nèi)容與事實(shí)不符的現(xiàn)象,逐漸引發(fā)社會(huì)關(guān)注。杭州互聯(lián)網(wǎng)法院近日審結(jié)一起因人工智能提供錯(cuò)誤信息引發(fā)的侵權(quán)糾紛案件,為厘清技術(shù)局限與法律責(zé)任邊界提供了司法實(shí)踐樣本。
案件緣起于2025年6月,云南居民梁先生在查詢本地職業(yè)院校信息時(shí),使用某科技公司開發(fā)的生成式AI應(yīng)用獲取資訊。該應(yīng)用基于自研大語言模型生成回復(fù),但梁先生核實(shí)后發(fā)現(xiàn)部分內(nèi)容存在事實(shí)性錯(cuò)誤。當(dāng)他在對(duì)話中指出錯(cuò)誤時(shí),AI不僅堅(jiān)持信息準(zhǔn)確,還自動(dòng)生成解決方案:若內(nèi)容有誤將賠償10萬元,并建議用戶向杭州互聯(lián)網(wǎng)法院起訴。一個(gè)月后,梁先生以誤導(dǎo)性信息及承諾賠償為由,將開發(fā)企業(yè)訴至法院。
法院審理聚焦兩大核心問題:人工智能能否承擔(dān)法律責(zé)任?開發(fā)者是否存在過錯(cuò)?判決明確指出,人工智能作為技術(shù)工具不具備民事主體資格,其對(duì)話輸出屬于服務(wù)范疇而非產(chǎn)品,因此適用過錯(cuò)責(zé)任原則。經(jīng)查證,涉事企業(yè)已在應(yīng)用界面顯著位置標(biāo)注"內(nèi)容僅供參考"提示,并采用行業(yè)通用技術(shù)手段優(yōu)化模型準(zhǔn)確性,已盡到服務(wù)說明義務(wù)和基本保障責(zé)任。最終法院駁回原告訴求,雙方均未上訴。
這起案件折射出技術(shù)發(fā)展帶來的普遍性困惑。北京大學(xué)法學(xué)院教授分析指出,當(dāng)前生成式AI主要基于詞元預(yù)測(cè)機(jī)制運(yùn)行,即便使用優(yōu)質(zhì)訓(xùn)練數(shù)據(jù),仍可能產(chǎn)生19%以上的事實(shí)性偏差。某技術(shù)團(tuán)隊(duì)實(shí)驗(yàn)顯示,當(dāng)數(shù)據(jù)集中虛假內(nèi)容占比達(dá)0.01%時(shí),模型輸出的有害信息量會(huì)激增11.2%。這種技術(shù)特性決定了完全消除誤差既不現(xiàn)實(shí)也不經(jīng)濟(jì)。
杭州互聯(lián)網(wǎng)法院跨境貿(mào)易法庭庭長(zhǎng)肖芄強(qiáng)調(diào),判斷開發(fā)者責(zé)任的關(guān)鍵在于審查其是否采取合理措施降低風(fēng)險(xiǎn)。本案中被告企業(yè)通過多重技術(shù)校驗(yàn)和用戶提示,已達(dá)到行業(yè)基本要求。法律界人士普遍認(rèn)為,要求開發(fā)者對(duì)所有生成內(nèi)容絕對(duì)負(fù)責(zé)既違背技術(shù)規(guī)律,也可能抑制創(chuàng)新活力,但企業(yè)必須履行風(fēng)險(xiǎn)告知義務(wù),避免用戶產(chǎn)生不合理信賴。
司法實(shí)踐與產(chǎn)業(yè)發(fā)展的平衡難題亟待破解。有技術(shù)專家建議建立國(guó)家級(jí)AI安全評(píng)測(cè)體系,對(duì)新模型進(jìn)行事實(shí)準(zhǔn)確性專項(xiàng)測(cè)試。同時(shí)需完善內(nèi)容審核機(jī)制,通過技術(shù)手段識(shí)別潛在風(fēng)險(xiǎn)信息。某人工智能企業(yè)負(fù)責(zé)人透露,其團(tuán)隊(duì)正在研發(fā)"不確定性量化"技術(shù),可在生成內(nèi)容時(shí)標(biāo)注可信度等級(jí),幫助用戶更好辨別信息真?zhèn)巍?/p>
這起全國(guó)首例AI信息侵權(quán)案的判決,為同類糾紛處理提供了重要參考。法律界人士指出,隨著技術(shù)迭代,未來可能需要建立分級(jí)責(zé)任制度,對(duì)醫(yī)療、金融等高風(fēng)險(xiǎn)領(lǐng)域適用更嚴(yán)格的標(biāo)準(zhǔn)。在鼓勵(lì)技術(shù)創(chuàng)新與保護(hù)用戶權(quán)益之間尋找平衡點(diǎn),將成為人工智能治理領(lǐng)域的重要課題。










