OpenAI扩展“可信网络防御访问”计划,推出GPT-5.4-Cyber模型
OpenAI正在加速其网络安全防御战略,通过扩展**“可信网络防御访问”计划,并推出专门为网络安全防御场景优化的GPT-5.4-Cyber**模型。这一举措标志着AI在网络安全领域的应用进入新阶段,旨在帮助防御者更有效地应对日益复杂的网络威胁。
计划扩展与模型发布
OpenAI宣布将**“可信网络防御访问”计划规模扩大至数千名经过验证的个体防御者和数百个负责保护关键软件的团队。同时,公司发布了GPT-5.4-Cyber**,这是基于GPT-5.4专门为网络安全防御用例进行微调的变体模型。该模型被设计为“网络许可”模式,意味着它在处理网络安全任务时具有更高的灵活性和针对性。
这一发布是OpenAI为未来几个月即将推出的更强大模型所做的准备之一。公司强调,其目标是通过迭代部署和生态系统韧性,确保AI能力提升与网络安全防御需求同步发展。
背景与战略原则
OpenAI的网络安全防御计划建立在三个核心原则之上:
- 民主化访问:目标是尽可能广泛地提供这些工具,同时防止滥用。公司设计机制避免任意决定谁可以获得合法访问权限,而是使用清晰、客观的标准和方法(如强化的KYC和身份验证)来指导访问更高级能力。
- 迭代部署:通过逐步测试和部署,确保模型在真实环境中的安全性和有效性。
- 生态系统韧性:支持防御者社区,增强整体网络防御能力。
自2023年以来,OpenAI已通过网络安全资助计划支持防御者,并通过准备框架加强保障措施。2025年,公司开始在模型部署中纳入特定于网络安全的保障措施。今年早些,还推出了Codex Security以大规模识别和修复漏洞。
AI在网络安全中的双重角色
AI的进步正在加速防御者的能力,使他们能够更快地发现和修复数字基础设施中的问题。然而,攻击者同样在利用AI技术造成危害。OpenAI表示已为此做好准备,通过持续的能力提升和保障措施,确保AI工具主要用于防御目的。
公司强调,其最终目标是使先进的防御能力对合法行为者(无论大小)可用,包括那些负责保护关键基础设施、公共服务和人们依赖的数字系统的团队。
未来展望
OpenAI计划通过逐步扩展访问和自动化流程,进一步推动网络安全防御的民主化。随着模型能力的不断提升,公司预计将继续以“锁步”方式扩展网络防御,确保测试和部署未来版本时兼顾安全性与实用性。
这一举措不仅反映了AI在网络安全领域的重要性日益增长,也展示了OpenAI在平衡创新与责任方面的持续努力。