Anthropic新AI模型发现“所有主流操作系统和浏览器”的安全漏洞
Anthropic联手科技巨头推出网络安全AI模型,自主发现数千高危漏洞
AI安全领域迎来重要进展。Anthropic近日宣布推出名为Project Glasswing的网络安全项目,并与Nvidia、Google、Amazon Web Services、Apple、Microsoft等科技巨头建立合作伙伴关系。该项目核心是一个名为Claude Mythos Preview的新型通用AI模型,该模型在近期测试中已发现“数千个高危漏洞,包括所有主流操作系统和浏览器中的一些漏洞”。
模型能力:自主识别漏洞并开发利用程序
根据Anthropic官方博客,Claude Mythos Preview并非专门为网络安全训练,但其“强大的代理编码和推理能力”使其在安全领域表现出色。最引人注目的是,该模型能够完全自主地识别系统漏洞,并“开发许多相关利用程序——无需任何人工指导”。
Anthropic前沿红队网络安全负责人Newton Cheng向The Verge表示,该模型的目标是让网络防御者获得“先发优势”对抗攻击者。尽管未透露具体技术细节,但模型已在实际测试中证明其价值。
合作模式:仅限“防御性安全”合作伙伴
目前,Project Glasswing仅向“防御性安全”合作伙伴开放,大型企业甚至政府机构可通过该项目以“几乎无需人工干预”的方式标记系统漏洞。这种限制访问的策略旨在防止恶意攻击者利用同一技术发现弱点并发起攻击。
值得注意的是,Claude Mythos Preview目前没有公开发布的计划,Anthropic出于安全考虑将其保留在合作伙伴生态内。该模型的存在于上月因数据泄露首次被曝光,公司将其归因于人为错误。
行业影响:AI驱动网络安全的新范式
这一合作标志着AI在网络安全领域的应用进入新阶段:
- 自动化程度提升:传统漏洞扫描仍需大量人工分析,而Mythos Preview展示了完全自主运作的潜力
- 响应速度加快:模型可实时分析系统,帮助企业在攻击发生前修补漏洞
- 合作生态形成:科技巨头联合参与,可能推动行业标准和安全实践的统一
潜在挑战与未来展望
尽管成果显著,但完全自主的AI安全工具也引发思考:
- 误报与过度依赖:如何平衡自动化检测与人工验证?
- 技术垄断风险:仅限少数合作伙伴访问,是否会影响中小企业的安全能力?
- 伦理与监管:自主开发漏洞利用程序的技术,如何确保不被滥用?
Anthropic此次发布不仅展示了AI在代码分析和推理方面的进步,更预示着网络安全防御可能从“被动响应”转向“主动预防”的新时代。随着Project Glasswing在合作伙伴中的部署,其实际效果和行业影响值得持续关注。