OpenAI 新安全模型仅限“关键网络防御者”使用
OpenAI 即将推出全新的前沿网络安全模型 GPT-5.5-Cyber。CEO Sam Altman 在 X 平台宣布,该模型不会面向公众开放,而是首先向一小部分经过筛选的“可信网络防御者”推出,以帮助机构加强网络防御能力。限量部署将在“未来几天内”开始,Altman 表示将与整个生态系统和政府合作,确定网络安全领域的可信访问权限。
目前尚不清楚哪些机构或个人将获得首批访问权限。此前 OpenAI 的“可信访问”计划通常涉及经过审查的专业人士和机构。关于模型的具体能力和技术细节,OpenAI 尚未公布任何信息。从命名来看,GPT-5.5-Cyber 是近期发布的 GPT-5.5(OpenAI 称之为“最智能、最直观的模型”)的专用版本。
这种分阶段发布策略反映了 AI 行业的一个趋势:公司将最强大的模型标记为“过于危险”而不适合公开发布,以防止滥用。OpenAI 此前已对多个网络安全模型采取过类似做法,此外还有专门用于生物学研究和药物发现的 GPT-Rosalind 模型。
本月早些时候,Anthropic 也采用了类似策略发布了 Claude Mythos,但声势更大,且在安全发布过程中出现了一些尴尬的失误。白宫对 Mythos 的发布表现出浓厚兴趣,尽管与 Anthropic 在五角大楼合作问题上存在紧张关系。据《华尔街日报》报道,白宫官员反对进一步扩大 Mythos 的访问权限,理由包括:更多人使用该模型会带来新的网络安全风险,以及需求增加可能影响政府自身的系统使用能力。
行业影响与安全博弈
OpenAI 和 Anthropic 的举措凸显了前沿 AI 模型在安全与可用性之间的两难。一方面,强大的 AI 能力可以显著提升网络防御效率;另一方面,同样的能力若被恶意利用,可能造成严重破坏。因此,限制访问成为平衡风险的常见做法。
然而,这种“可信访问”模式也引发了争议:谁来决定哪些机构或人员是“可信的”?政府、企业还是第三方机构?缺乏透明的筛选标准可能导致权力集中或偏见。此外,白宫对 Claude Mythos 的干预显示,政府正积极介入 AI 安全治理,但各方利益并不总是一致。
随着 GPT-5.5-Cyber 即将上线,AI 网络安全领域将迎来新的变量。开发者、安全专家和政策制定者需要共同探索更完善的治理框架,以确保这些强大工具真正造福社会,而非成为新的风险源头。

