OA0
OA0 是一个探索 AI 的社区
现在注册
已注册用户请  登录
OA0  ›  社区  ›  Anthropic

Anthropic 推出 Project Glasswing:用专用大模型重构“漏洞发现”范式,AI 安全开始反向武装基础设施

 
  flourish ·  2026-04-08 10:42:39 · 9 次点击  · 0 条评论  

在大模型持续外溢到软件工程各环节的当下,网络安全成为最具争议也最具潜力的应用场景之一。近日,Anthropic 发起一项名为 Project Glasswing 的安全计划,试图用“未公开模型 + 多方协作”的方式,将 AI 从潜在攻击工具转变为系统性防御能力的一部分。

与以往单点工具不同,这一项目更像是一场围绕“关键软件基础设施”的 AI 安全实验:不仅涉及模型能力本身,也牵动云厂商、操作系统厂商、金融机构与开源社区的协同机制。

从代码补全到漏洞挖掘:AI 正进入更深层的软件工程环节

Project Glasswing 的核心,是一款尚未公开的模型 Claude Mythos Preview。不同于通用对话模型,该模型被明确定位为“防御性安全 AI”,重点能力集中在以下几个方向:

  • 静态代码分析(Static Analysis)增强
  • 跨仓库依赖链追踪(Dependency Graph Reasoning)
  • 潜在漏洞模式识别(Pattern-based Vulnerability Discovery)
  • 零日漏洞(Zero-day)推断与验证

Anthropic 表示,在数周测试中,该模型已经发现了数千个高危漏洞,覆盖操作系统、浏览器及其他关键软件组件。这一数据如果属实,意味着 AI 在漏洞发现效率上已经开始超越传统自动化工具(如 fuzzing 与规则扫描),并接近甚至补充人工安全研究员的能力。

关键变化在于:模型不再只是“生成代码”,而是开始理解复杂系统中的隐性风险结构。

多方协作:云厂商 + 系统厂商 + 金融机构的安全共建

Project Glasswing 的另一个值得关注的点,是其参与方的构成。Anthropic 联合了包括:

            • 以及 40 多家关键软件基础设施相关组织。

这种组合背后反映出一个趋势:AI 安全问题已经不再是单一厂商或开源社区可以独立解决的议题,而是横跨算力、系统软件、应用生态与金融系统的“系统性风险”。

例如:

  • 云厂商掌握大规模运行环境与日志数据
  • 操作系统与浏览器厂商掌握核心攻击面
  • 金融机构对安全事件的容忍度最低、需求最强

AI 模型在这种多源数据与真实场景中训练和验证,其能力边界也随之扩展。

“封闭模型 + 定向开放”:安全领域的特殊策略

值得注意的是,Claude Mythos Preview 并不会像常规大模型那样快速开放。Anthropic 采取了明显更保守的策略:

  • 仅向受信任组织开放访问
  • 提供最高 1 亿美元的模型使用额度(Compute Credit)
  • 向开源安全组织捐赠 400 万美元
  • 计划在 90 天内公布阶段性成果

这种策略背后的逻辑并不复杂:在安全领域,模型能力本身具有“双刃剑”属性。一旦漏洞发现能力被滥用,可能直接转化为攻击能力。

因此,Glasswing 本质上是在探索一种“受控能力释放”的路径:
让 AI 先服务于防御方,再逐步评估是否可以更广泛开放。

这与当前开源大模型(如 Llama、Mistral 系列)快速扩散的路径形成鲜明对比,也为“高风险 AI 能力”的治理提供了一个现实样本。

对 AI 工程与安全生态的影响

从技术社区视角来看,Project Glasswing 可能带来几个关键变化:

1. 安全工具链将被大模型重构

传统安全流程通常依赖:

  • SAST(静态应用安全测试)
  • DAST(动态测试)
  • 人工审计

而大模型的引入,使得“语义理解 + 推理”成为新的核心能力。这意味着未来的安全工具链,可能围绕以下能力重构:

  • 代码语义建模(Code Semantics Modeling)
  • 跨模块推理(Cross-module Reasoning)
  • 自动化 exploit 生成与验证(受控环境)

2. Agent 化安全系统成为可能

如果将 Claude Mythos 这类模型进一步与执行环境结合,就可以形成具备以下能力的安全 Agent:

  • 自动扫描仓库
  • 生成修复建议(甚至 PR)
  • 验证补丁有效性
  • 持续监控新引入风险

这类 Agent 本质上是“AI 驱动的安全工程师”,也是当前 AI 工程(AI Engineering)中最具商业价值的方向之一。

3. “AI 对抗 AI”将成为常态

随着攻击者同样可以利用大模型生成 exploit,未来安全格局很可能演化为:

  • 攻击侧:AI 自动发现与利用漏洞
  • 防御侧:AI 自动检测与修复漏洞

Project Glasswing 可以看作是防御侧的提前布局。

写在最后:从能力展示到基础设施升级

如果说过去两年,大模型主要改变的是“开发效率”,那么 Project Glasswing 所代表的,是 AI 开始进入“系统安全与基础设施”这一更深层领域。

它不只是一个安全项目,更像一次试探:
当模型具备接近人类专家的漏洞发现能力时,整个软件生态是否需要围绕 AI 重新设计安全边界?

90 天后的阶段性成果,或许会给出初步答案。但可以确定的是,AI 在安全领域的角色,已经从“辅助工具”转向“核心参与者”。

9 次点击  ∙  0 人收藏  
登录后收藏  
0 条回复
关于 ·  帮助 ·  PING ·  隐私 ·  条款   
OA0 - Omni AI 0 一个探索 AI 的社区
沪ICP备2024103595号-2
耗时 20 ms
Developed with Cursor