SheepNav
新上线今天0 投票

Anthropic最危险的AI模型落入“错误之手”:Mythos遭未授权访问

Anthropic的“危险AI”模型Mythos遭未授权访问

据Bloomberg报道,Anthropic公司开发的Claude Mythos Preview——一款被该公司称为“在错误之人手中可能很危险”的强大网络安全AI模型——已被一个“小规模未授权用户群”访问。这一事件发生在4月7日,恰逢Anthropic宣布向少数公司限量发布该模型进行测试的同一天。

事件经过:Discord群组与第三方承包商

消息来源于一位匿名人士,其身份仅被确认为“Anthropic的第三方承包商”。该人士透露,一个私人线上论坛的成员通过多种手段获取了Mythos的访问权限,包括利用该承包商的访问权限以及“常用的互联网侦查工具”。

据报道,这个未公开身份的群组是Discord上一个专门寻找未发布AI模型信息的频道成员。他们访问Mythos的手段之一,是利用了从近期Mercor数据泄露中获得的关于Anthropic其他模型格式的知识。

Mythos模型:能力与风险

Claude Mythos Preview是Anthropic新推出的一款通用模型,其能力令人瞩目:根据Anthropic的描述,当用户指示时,它能够识别并利用“每个主要操作系统和每个主要网络浏览器中的漏洞”。这种能力使其成为一把双刃剑——在安全专家手中是强大的防御工具,在恶意行为者手中则可能成为危险的攻击武器。

正因如此,Anthropic目前没有公开发布该模型的计划,担心其可能被武器化。官方访问权限通过Project Glasswing倡议,仅限于少数几家公司,包括Nvidia、Google、Amazon Web Services、Apple和Microsoft。政府机构也在关注这项技术。

公司回应与影响评估

Anthropic发言人在给Bloomberg的声明中表示:“我们正在调查一份报告,该报告称通过我们的一个第三方供应商环境,存在对Claude Mythos Preview的未授权访问。”

公司目前没有证据表明这次未授权访问影响了其自身系统,或超出了第三方供应商的环境范围。这意味着,至少从Anthropic的角度看,核心系统可能尚未直接受损,但模型能力本身的外泄已是事实。

AI安全与访问控制的行业挑战

这一事件凸显了AI行业,特别是涉及高风险模型时,面临的多重安全挑战:

  • 供应链风险:即使像Anthropic这样以安全著称的公司,也难以完全控制第三方承包商带来的风险。这呼应了此前五角大楼将Anthropic正式列为供应链风险的相关报道。
  • 模型泄露途径多样化:从内部权限滥用、数据泄露信息利用,到公开渠道的信息搜集,攻击面正在不断扩大。
  • “危险AI”的管控困境:如何平衡前沿能力的开发、有限范围的测试与绝对的安全封锁,已成为行业性难题。

事件启示

Mythos模型的未授权访问事件,不仅是一次具体的安全漏洞,更是对整个AI安全生态的一次压力测试。它表明:

  1. 物理隔离或权限限制 在复杂的数字环境中可能并不足够,特别是当模型价值足够高时,会吸引持续的专业级“狩猎”行为。
  2. AI公司的安全边界正在从代码和服务器,扩展到整个合作网络与数据流转路径。
  3. 对于具备双重用途潜力的尖端AI模型,其生命周期管理——从开发、测试到可能的部署——需要更严密、更具弹性的安全框架。

目前,该Discord群组已访问Mythos模型约两周时间。后续Anthropic将如何应对,是否会有更广泛的影响浮现,以及行业会否因此调整高风险模型的测试协议,值得持续关注。

延伸阅读

  1. 亚马逊Bedrock结合Neptune与Mem0推出企业级记忆功能,TrendMicro率先应用
  2. Meta启动“模型能力计划”:追踪员工电脑操作以训练AI智能体
  3. 印度医学生借AI生成“MAGA辣妹”月入数千美元
查看原文