OpenAI 近日发布 Codex Security,这是一款面向代码安全审计场景的 AI 工具。目前该产品以 研究预览(Research Preview) 形式开放给 ChatGPT Enterprise、Business 与 Edu 用户,并提供 一个月免费试用。
Codex Security 的核心目标是解决传统安全扫描工具中普遍存在的 误报率高、告警噪音大 的问题,帮助安全团队更快识别真正具有风险的漏洞,从而提高代码安全审计效率。
与传统只依赖静态规则扫描的安全工具不同,Codex Security 采用了一种更接近安全专家工作方式的分析流程。
在执行安全检测前,该系统会:
在建立这些上下文之后,Codex Security 才会对潜在漏洞进行识别、验证,并给出修复建议。
这种方式可以避免传统扫描工具常见的问题,例如:
通过结合项目上下文进行分析,AI 可以更准确地识别 真正具有安全风险的代码路径。
OpenAI 表示,在内部测试以及部分开源项目中,Codex Security 已经成功识别出 真实存在的高危安全漏洞。
这些测试表明,该工具不仅能够:
同时还能显著 减少误报与无效告警数量,从而降低安全团队的排查压力。
Codex Security 的定位并不是简单替代现有扫描工具,而是希望成为 企业安全工作流中的 AI 协作助手。
在实际开发流程中,它可以帮助团队:
对于大型企业代码库而言,这类 AI 工具有望在 DevSecOps(开发安全运维) 流程中发挥更重要的作用。
随着生成式 AI 在编程领域的广泛应用,软件安全也成为新的技术关注点。
OpenAI 推出 Codex Security,意味着 AI 不仅可以用于 代码生成,也正在逐步进入 代码审计与安全防护 领域。
未来,随着模型能力的持续提升,AI 有望在漏洞发现、风险评估和自动修复等方面承担更多角色,成为软件安全体系的重要组成部分。
参考来源
https://openai.com/index/codex-security-now-in-research-preview/