过去一年,围绕 OpenAI Codex 的讨论,大多数集中在两个表层现象:增长很快、案例很猛(修 bug、做 App、提效惊人)。但如果只停留在这些结论,你会错过一个更关键的变化:
Codex 的本质创新,不是模型能力,而是让模型成为一个可以长时间运行的系统组件
这件事,比“写代码更强”重要得多。
传统认知里,AI 能力 ≈ 模型能力。但 Codex 团队已经明确转向另一种结构:
Agent = Model + API + Runtime Framework
这三层分别承担完全不同的职责:
关键点在于:
单独优化模型,收益在递减;但优化“模型如何被使用”,收益是指数级的
这也是为什么 Codex 的增长,并不完全来自 GPT-5 之后的模型升级,而是来自系统层设计的成熟。
一个被反复提到但容易被忽略的能力是:
Codex 可以连续运行 24~60 小时完成任务
这不是简单的“多调用几次 API”,而是一个系统问题:
传统 LLM:
Codex 的解法是一个关键机制:
Compression(压缩)
它的本质不是总结,而是:
压缩能成立,是因为三层结构配合:
这本质上是:
把 LLM 从“无状态函数”变成“有记忆的进程”
早期 Codex 走的是“云端 Agent”路线:
这在理论上更强,但实际遇到一个问题:
不符合人类开发者的认知模型
当 Codex 被拉回开发者环境后:
结果就是:
使用门槛下降 → 使用频率上升 → 数据与反馈暴涨 → 产品迭代加速
这一步不是“产品优化”,而是:
让 Agent 嵌入人类工作流,而不是让人类适应 Agent
Codex 团队反复强调一个观点:
编写代码,是 AI 完成任务的最优方式
这背后其实有很强的工程逻辑:
相比之下:
而代码具备:
代码 = AI 的“通用行动语言”
这也是为什么:
一个非常反直觉但关键的判断是:
当前限制 AI 生产力的,不是模型能力,而是人类带宽
具体表现为三个瓶颈:
系统变成:
AI 生成 → 人类验证 → AI 等待 → 循环
真正的突破方向不是“让 AI 更强”,而是:
减少人类在循环中的必要参与
Codex 带来的不是“更快写代码”,而是整个软件生产方式的重构:
工程师的工作正在迁移:
问题是:
审查 ≠ 创造 → 工作体验下降
典型变化:
这意味着:
角色边界正在塌缩(Role Collapse)
当开发变简单:
真正稀缺的变成:知道该做什么
这也是为什么垂直领域(Vertical AI)被看好。
围绕 Cursor 等工具,一个流行观点是:
未来是“Spec → AI → Code”
但 Codex 团队给出一个更贴近现实的判断:
Chat → Iteration → Execution
原因很简单:
“对话驱动开发”(Conversation-driven Development)
这和团队日常协作方式高度一致(Slack / 会议 / 讨论)。
很多人把速度归因于“工程能力”,但更关键的是组织结构:
类似:
Launch → Observe → Iterate
而不是:
Plan → Perfect → Launch
这种模式成立的前提是:
每个人都具备强自驱与判断力
否则系统会失控。
“Sora 18 天上线”这种案例,本质不是速度,而是:
Agent 开始参与完整软件生命周期
包括:
这意味着:
AI 已经从“工具”升级为“流程参与者”
所有 AI 产品,最终会走向两个方向:
Codex 明显在走第二条路:
从 Copilot → Teammate
最后一个容易被忽略但极其重要的点:
智能体写的代码,是可以积累的
这意味着:
| 模式 | 是否积累能力 |
|---|---|
| Chat AI | ❌ |
| Code-based Agent | ✅ |
Codex 的意义不在于:
而在于:
它让 AI 从“调用函数”变成“持续运行的系统节点”
一旦这个转变成立,接下来发生的一切都顺理成章:
而所谓的 AGI 临界点,很可能不是模型突然变聪明,而是:
人类从循环中退出的那一刻