SheepNav
新上线今天0 投票

报告称:未经授权团体已获取 Anthropic 独家网络安全工具 Mythos 访问权限

近日,有报道称一个未经授权的团体已通过第三方供应商环境,成功访问了 Anthropic 近期发布的网络安全 AI 工具 Mythos。Anthropic 对此表示正在调查相关报告,但强调目前没有证据表明其自身系统受到影响。

事件概述

据 Bloomberg 报道,一个私人线上论坛的成员(身份未公开)通过第三方供应商环境,获得了对 Mythos 的访问权限。该工具是 Anthropic 为提升企业安全而设计的 AI 产品,但公司此前曾警告,若落入不当之手,它可能被用作强大的黑客工具。

Anthropic 发言人向 TechCrunch 证实:“我们正在调查一份报告,该报告声称通过我们的一个第三方供应商环境,存在对 Claude Mythos Preview 的未经授权访问。” 公司补充说,截至目前,未发现任何证据表明此次未经授权的活动对 Anthropic 的系统造成了影响。

访问途径与动机

报道指出,该未经授权团体尝试了多种策略来获取模型访问权限,其中包括利用了 Bloomberg 采访对象所享有的访问权。该采访对象目前受雇于一家为 Anthropic 工作的第三方承包商。

该团体成员属于一个 Discord 频道,该频道专门寻找关于未发布 AI 模型的信息。自获得访问权限以来,他们一直在定期使用 Mythos,并向 Bloomberg 提供了软件截图和实时演示作为证据。

据 Bloomberg 报道,该团体在 Mythos 公开发布的当天就成功获取了访问权限。他们基于对 Anthropic 其他模型所用格式的了解,对模型的在线位置做出了有根据的猜测。消息人士向媒体透露,该团体的兴趣在于“试用新模型”,而非利用其制造破坏。

Mythos 的背景与风险

Mythos 是作为 Project Glasswing 计划的一部分,向包括苹果等知名公司在内的少数选定供应商发布的。这种有限发布的设计初衷,正是为了防止该工具被恶意行为者利用。

Anthropic 曾明确指出,Mythos 本意是加强企业安全,但如果被滥用,它也可能被“武器化”,转而攻击企业安全防线。此次事件凸显了即使是旨在防御的尖端 AI 工具,在供应链或访问控制环节存在漏洞时,也可能带来潜在的安全风险。

行业影响与反思

这起事件再次敲响了 AI 安全与访问控制的警钟。随着越来越多的 AI 公司通过合作伙伴和供应商网络推广其企业级产品,确保整个生态链的安全变得至关重要。一次第三方环境的漏洞,就可能导致专有、强大的工具提前暴露在非预期用户面前。

对于 Anthropic 而言,迅速启动调查并公开回应是危机处理的必要步骤。其声称内部系统未受影响,有助于稳定客户信心,但针对第三方供应商环境的调查结果以及后续的补救措施,将是业界关注的焦点。

小结

目前,Anthropic 对事件的调查仍在进行中。这起涉及 Mythos 的未经授权访问事件,不仅测试了 Anthropic 自身的应急响应能力,也为整个 AI 行业提出了一个现实问题:在追求技术落地与商业合作的同时,如何构建更严密、更具韧性的安全与权限管理体系,防止强大的 AI 工具通过非预期渠道外泄。后续进展值得持续关注。

延伸阅读

  1. Meta将记录员工击键与鼠标轨迹,用于训练AI模型
  2. SpaceX与Cursor合作,并拥有以600亿美元收购这家初创公司的选择权
  3. SpaceX 达成一项奇特协议:可能以 600 亿美元收购 Cursor
查看原文