谷歌公司近日披露,其旗下AI聊天機(jī)器人Gemini正面臨一場(chǎng)大規(guī)模的“蒸餾攻擊”威脅。攻擊者通過(guò)高頻次、重復(fù)性的提問(wèn),試圖解析該模型的輸出邏輯與內(nèi)部機(jī)制,甚至企圖“克隆”其核心技術(shù)或強(qiáng)化自身AI系統(tǒng)。據(jù)谷歌統(tǒng)計(jì),僅某一場(chǎng)攻擊活動(dòng)中,Gemini就遭遇了超過(guò)10萬(wàn)次惡意提示。
霍特奎斯特將谷歌的處境比作“煤礦里的金絲雀”,暗示大型AI平臺(tái)遭遇的攻擊可能預(yù)示著整個(gè)行業(yè)面臨更廣泛的風(fēng)險(xiǎn)。他特別提到,隨著企業(yè)定制化大語(yǔ)言模型(LLM)的普及,蒸餾攻擊的危害將進(jìn)一步擴(kuò)大。例如,若某企業(yè)的LLM學(xué)習(xí)了其百年交易策略,攻擊者可能通過(guò)逐步提問(wèn)提取這些敏感商業(yè)機(jī)密。
谷歌強(qiáng)調(diào),蒸餾攻擊本質(zhì)上屬于知識(shí)產(chǎn)權(quán)盜竊行為。科技公司為開(kāi)發(fā)AI聊天機(jī)器人投入了數(shù)十億美元,其核心模型的內(nèi)部機(jī)制被視為高度保密的專(zhuān)有資產(chǎn)。盡管主流AI服務(wù)提供商已部署防御機(jī)制,但由于模型需向公眾開(kāi)放使用,仍難以完全規(guī)避此類(lèi)風(fēng)險(xiǎn)。
據(jù)谷歌披露,多數(shù)攻擊目標(biāo)集中在Gemini的“推理”算法——即模型處理信息并做出決策的機(jī)制。分析人士警告,隨著定制化LLM在金融、醫(yī)療等領(lǐng)域的廣泛應(yīng)用,攻擊者可能通過(guò)蒸餾手段獲取用戶(hù)隱私數(shù)據(jù)或商業(yè)策略,引發(fā)更嚴(yán)重的安全危機(jī)。








