
新上线今天0 投票
Discord 侦探们未经授权访问了 Anthropic 的 Mythos 模型
一群业余侦探在 Discord 上通过简单的调查工作,未经授权访问了 Anthropic 备受瞩目的 Mythos Preview 模型,该模型因其强大的安全漏洞发现能力而被严格控制发布。
事件回顾
据报道,这些用户利用了近期 Mercor(一家与开发者合作的 AI 训练初创公司)数据泄露中的信息,结合对 Anthropic 地址格式的了解,推测出了 Mythos 模型的在线位置,从而获得了访问权限。整个过程无需任何黑客技术,仅依靠公开信息和逻辑推理。
行业背景
Mythos Preview 被宣传为一种“危险地强大”的工具,能够自动发现软件和网络中的安全漏洞。Anthropic 对其访问实施了严格限制,但这次事件暴露了仅靠“保密”而非技术手段控制访问的风险。在 AI 安全领域,模型泄露可能导致恶意使用,例如自动化攻击或零日漏洞挖掘。
安全启示
此次事件凸显了 AI 工具分发中的访问控制挑战。尽管 Anthropic 可能依赖邀请制或白名单,但攻击者通过社交工程和 OSINT(开源情报)仍能绕过。类似案例在业界并不罕见:此前就有研究人员通过分析 GitHub 提交记录或 API 端点模式发现未公开模型。
更广泛的网络安全动态
本周其他值得关注的新闻包括:
- Mozilla 利用 Anthropic 的 Mythos Preview 在 Firefox 150 发布前修复了 271 个漏洞,展示了该模型的正面用途。
- 朝鲜黑客 利用 AI 进行“氛围编码”、创建虚假公司网站,三个月内窃取了 1200 万美元。
- Fast16 恶意软件 被破解,该软件早于 Stuxnet,可能被美国或其盟友用于针对伊朗核计划。
- Meta 遭诉讼:美国消费者联合会因 Facebook 和 Instagram 上的诈骗广告起诉 Meta。
- 美国监控计划 面临续期僵局,一项新法案试图解决争议但内容空洞。
小结
Discord 侦探们的故事提醒我们:在 AI 时代,技术先进不等于安全。访问控制需要结合身份验证、行为监控和最小权限原则,而非单纯依赖隐藏。对于 Anthropic 而言,这次“入侵”或许是一次免费的安全审计,但下次可能就没这么幸运了。