OpenAI已启动多层次安全防护体系建设

打印派   2025-12-11 10:20:47

AI技术正以前所未有的速度渗透至网络安全领域,防御者们面临着严峻挑战。OpenAI表示,其专注于网络安全的人工智能模型正在迅猛发展——从2025年8月GPT-5模型27%的网络安全攻防演练通过率,跃升至2025年11月GPT-5.1-Codex-Max模型的76%通过率。

这一飞跃式进步揭示了AI系统在网络安全任务中的技术熟练度正加速进化。该公司预计,根据其"安全预备框架"标准,未来模型或将达到"高级"能力等级。

这意味着模型将具备开发可实际利用的零日漏洞攻击程序,或协助实施复杂的企业入侵活动的能力。为此,OpenAI表示正以"每个新模型都可能达到该阈值"为前提部署防护措施,确保技术进步始终与严格的风险管控并行。

防御优先战略
OpenAI正持续加大对防御型AI模型的投入,这些模型专为支持从代码审计到大规模漏洞修补等防御工作流而设计。公司坦言,其目标是在防御方常处于"数量劣势与资源匮乏"的背景下,为网络安全捍卫者建立技术优势。

鉴于网络攻防任务依赖相同的知识体系,OpenAI表示正采用纵深防御策略,而非依赖单一防护机制。公司着重强调"对能力访问路径、引导方式及应用场景的全程管控",确保人工智能技术成为网络安全的加固力量,而非降低攻击门槛的工具。

OpenAI特别指出,这项工作属于长期持续性投入,而非一次性安全工程。其目标是在模型能力持续增强的过程中,同步构建与之匹配的防御体系。

多层次安全架构
在基础层,OpenAI部署了访问控制、强化基础设施、出站限制及全方位监控系统。这些基础架构之上叠加了检测响应层及内部威胁情报机制。

训练环节也扮演着关键角色。OpenAI表示正在指导其前沿模型"拒绝或安全响应那些明显助长网络滥用的请求",同时保持对正当防御与教育需求的支持能力。

公司级监测系统持续追踪潜在滥用行为。当检测到危险活动时,OpenAI可采取阻止输出、将请求重定向至更安全的模型或升级至执行团队等措施。自动化工具与人工审核协同决策,综合考量事件严重性、法律要求及行为模式等因素。

端到端红队测试
公司同时实施端到端红队测试,邀请外部专家"像拥有充足资源且意志坚定的攻击者那样"尝试突破每层防线,从而提前发现薄弱环节。

构建安全生态
在完善内部防护体系的同时,OpenAI正在推进更广泛的网络安全计划。即将推出的可信访问计划将允许符合资质的网络安全从业者在受控环境下使用增强型模型能力。

公司正在测试名为"Aardvark"的自主安全研究智能体,该程序可扫描完整代码库中的漏洞并提供修复建议。OpenAI透露Aardvark已发现若干新型通用漏洞,未来将免费为选定非营利开源项目提供支持。

为加强治理框架,OpenAI正在组建由资深防御专家组成的"前沿风险委员会",该顾问团队将协助界定"负责任的能力应用"与"滥用风险"之间的边界。

通过前沿模型论坛,OpenAI正与其他实验室共同构建前沿AI系统的共享威胁模型。这项工作旨在绘制模型武器化路径图,识别现存瓶颈,探索行业协同防御方案。

这些系统性举措共同体现了OpenAI的长期使命:确保AI技术的崛起能切实转化为网络防御者的有效助力——这种力量应植根于实际需求,凝聚专家智慧,并始终以审慎态度部署应用。


0

44 0

发表评论

登陆后参与评论