2 月 15 日消息,當地時間 2 月 12 日,谷歌稱其 AI 聊天機器人 Gemini 正遭遇大量“蒸餾攻擊”(distillation attacks)—— 即通過重復提問誘導聊天機器人泄露內部機制。
谷歌表示,這些攻擊者試圖通過反復提問不斷試探其模型輸出模式與邏輯,探測其內部機制,從而“克隆”該模型或強化攻擊者自己的 AI 系統,其中一場攻擊活動對 Gemini 的提示次數超過 10 萬次。
谷歌在周四發布的報告中表示,這些攻擊主要由“商業動機行為者”發起。公司判斷其幕后人員多為希望獲得競爭優勢的 AI 私企或研究機構。谷歌發言人向 NBC News 表示,此次攻擊源來自全球多個地區,但拒絕披露更多關于嫌疑方的信息。
谷歌 Gemini 遭蒸餾攻擊:被大量提問內部邏輯,單次行動提示超 10 萬次
谷歌威脅情報小組(Threat Intelligence Group)首席分析師約翰 · 霍特奎斯特(John Hultquist)指出,“針對 Gemini 的攻擊規模表明,此類攻擊很可能已開始或即將蔓延至小型企業的定制 AI 工具領域。”他將谷歌的處境形容為“煤礦里的金絲雀”,意味著大型平臺的遭遇可能預示更廣泛的行業風險。
谷歌強調,此類蒸餾攻擊屬于知識產權盜竊。科技公司已投入數十億美元開發 AI 聊天機器人(注:指大語言模型),其核心模型的內部機制被視為高度重要的專有資產。盡管各大廠商已部署能夠識別與阻斷蒸餾攻擊的機制,但由于主流大模型服務面向所有人開放,所以其本質上仍易受攻擊。
谷歌還提到,多數攻擊旨試圖套取 Gemini 的“推理”算法,即其信息處理決策機制。霍特奎斯特警告,隨著越來越多公司開始訓練面向內部業務的定制 LLM,且這些模型可能包含敏感數據,蒸餾攻擊的潛在危害會更大。他舉例稱,如果某家公司的 LLM 學習了其“100 年來交易的思維方式”,理論上也可能被蒸餾手段逐步提取出關鍵知識秘密。







