谷歌首次拦截 AI 辅助开发的零日漏洞攻击
谷歌威胁情报组(GTIG)近日发布报告,称成功拦截了一起由“知名网络犯罪威胁行为体”策划的零日漏洞攻击。该漏洞针对一款未公开的“开源、基于 Web 的系统管理工具”,可绕过双因素认证(2FA),计划用于“大规模利用事件”。更引人注目的是,谷歌研究人员在漏洞利用的 Python 脚本中发现了 AI 参与的痕迹:包括一个“幻觉 CVSS 评分”以及“结构化、教科书式”的格式,与 LLM 训练数据特征高度吻合。这是谷歌首次发现 AI 被用于开发此类攻击。
AI 痕迹:幻觉评分与格式化代码
研究人员在分析脚本时注意到,其中包含一个 CVSS 评分,但该评分与实际漏洞严重性不符,属于 AI 常见的“幻觉”现象。此外,代码注释和结构过于规整,类似 LLM 生成的典型输出。谷歌强调,目前没有证据表明 Gemini 被用于此攻击,但承认这是 AI 辅助攻击的一个显著案例。
攻击目标:2FA 逻辑缺陷
该漏洞利用的是“高级语义逻辑缺陷”——开发者在 2FA 系统中硬编码了信任假设,导致可被绕过。谷歌已成功“阻断”该漏洞利用,但警告称黑客正越来越多地使用 AI 寻找和利用安全漏洞。
行业背景:AI 安全攻防升级
此次事件正值业界对 AI 安全能力高度关注之际。此前,Anthropic 的 Mythos 模型和一项 AI 辅助发现的 Linux 漏洞已引发讨论。谷歌报告还指出,攻击者正使用“角色驱动越狱”技术,诱导 AI 为其发现漏洞,例如指示 AI“假装自己是”安全研究员。同时,AI 系统本身也成为攻击目标,尤其是其自主技能和第三方数据连接器等组件。
小结
谷歌的发现标志着 AI 在网络攻击中应用的一个转折点:从辅助分析到直接参与漏洞开发。虽然此次攻击被成功拦截,但 AI 降低黑客技术门槛的趋势已不可逆。安全社区需要加速研发 AI 防御工具,并警惕类似“幻觉评分”等 AI 特有痕迹成为未来攻击识别的新指标。