谷歌 Gemini 遭蒸馏攻击:被大量提问内部逻辑,单次行动提示超 10 万次

IT之家 2 月 15 日消息,当地时间 2 月 12 日,谷歌称其 AI 聊天机器人 Gemini 正遭遇大量“蒸馏攻击”(distillation attacks)—— 即通过重复提问诱导聊天机器人泄露内部机制。谷歌表示,这些攻击者试图通过反复提问不断试探其模型输出模式与逻辑,探测其内部机制,从而“克隆”该模型或强化攻击者自己的 AI 系统,其中一场攻击活动对 Gemini 的提示次数超过 10 万次。谷歌在周四发布的报告中表示,这些攻击主要由“商业动机行为者”发起。公司判断其幕后人员多为希望获得竞争优势的 AI 私企或研究机构。谷歌发言人向 NBC News 表示,此次攻击源来自全球多个地区,但拒绝披露更多关于嫌疑方的信息。谷歌 Gemini 遭蒸馏攻击:被大量提问内部逻辑,单次行动提示超 10 万次休闲区蓝鸢梦想 - Www.slyday.coM谷歌威胁情报小组(Threat Intelligence Group)首席分析师约翰 · 霍特奎斯特(John Hultquist)指出,“针对 Gemini 的攻击规模表明,此类攻击很可能已开始或即将蔓延至小型企业的定制 AI 工具领域。”他将谷歌的处境形容为“煤矿里的金丝雀”,意味着大型平台的遭遇可能预示更广泛的行业风险。谷歌强调,此类蒸馏攻击属于知识产权盗窃。科技公司已投入数十亿美元开发 AI 聊天机器人(IT之家注:指大语言模型),其核心模型的内部机制被视为高度重要的专有资产。尽管各大厂商已部署能够识别与阻断蒸馏攻击的机制,但由于主流大模型服务面向所有人开放,所以其本质上仍易受攻击。谷歌还提到,多数攻击旨试图套取 Gemini 的“推理”算法,即其信息处理决策机制。霍特奎斯特警告,随着越来越多公司开始训练面向内部业务的定制 LLM,且这些模型可能包含敏感数据,蒸馏攻击的潜在危害会更大。他举例称,如果某家公司的 LLM 学习了其“100 年来交易的思维方式”,理论上也可能被蒸馏手段逐步提取出关键知识秘密。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,蓝鸢梦想所有文章均包含本声明。

相关推荐

  • 友情链接:
  • 智慧景区
  • 微信扫一扫

    微信扫一扫
    返回顶部

    显示

    忘记密码?

    显示

    显示

    获取验证码

    Close