谷歌近日披露,其人工智能聊天機(jī)器人Gemini正面臨大規(guī)模“蒸餾攻擊”的威脅。攻擊者通過(guò)反復(fù)提出相似問(wèn)題,試圖誘導(dǎo)模型暴露內(nèi)部運(yùn)作邏輯,甚至克隆其核心技術(shù)或強(qiáng)化自身AI系統(tǒng)。據(jù)谷歌統(tǒng)計(jì),某次攻擊活動(dòng)中,Gemini在短時(shí)間內(nèi)被輸入超過(guò)10萬(wàn)次提示,顯示出攻擊行為的系統(tǒng)性和持續(xù)性。
谷歌安全團(tuán)隊(duì)將當(dāng)前處境比作“煤礦里的金絲雀”,暗示大型平臺(tái)的遭遇可能預(yù)示整個(gè)行業(yè)即將面臨更廣泛的威脅。首席分析師約翰·霍特奎斯特表示,隨著企業(yè)定制化AI工具的普及,蒸餾攻擊的潛在危害將進(jìn)一步擴(kuò)大。他特別指出,若企業(yè)訓(xùn)練的模型包含百年交易數(shù)據(jù)或核心決策邏輯,攻擊者可能通過(guò)逐步提取信息,竊取關(guān)鍵商業(yè)秘密。
目前,主流科技公司已部署防御機(jī)制識(shí)別可疑提問(wèn)模式,但由于大語(yǔ)言模型需向公眾開放服務(wù),其本質(zhì)仍存在安全漏洞。谷歌透露,多數(shù)攻擊目標(biāo)集中在Gemini的“推理算法”層面,即模型處理信息并做出決策的核心機(jī)制。霍特奎斯特警告,當(dāng)定制化模型開始承載敏感業(yè)務(wù)數(shù)據(jù)時(shí),蒸餾攻擊的破壞力將呈指數(shù)級(jí)增長(zhǎng),行業(yè)需盡快建立更完善的防護(hù)標(biāo)準(zhǔn)。











