OpenAI 正在升级其 AI 编程工具 Codex 的模型能力。随着新旗舰模型 GPT-5.4 上线,Codex 现在已经支持 最高 1M 上下文窗口,并引入新的配额与性能模式设计:当上下文超过 272K tokens 时,超出部分将按 2 倍配额倍率计算。此外,开发者还可以通过 /fast 命令启用快速模式,以更高速度生成代码。
这一更新显示出 OpenAI 正在继续强化 Codex 在 AI 编程领域的能力,同时也对资源消耗和配额管理进行了更精细的控制。
OpenAI 在近期发布了最新旗舰模型 GPT-5.4,并迅速将其集成到 Codex 中。该模型的一大核心能力是支持 最高 1M tokens 的上下文窗口。
对于编程场景而言,更长的上下文窗口意味着 AI 可以:
在大型项目开发、自动化重构以及代码审查等任务中,大上下文窗口可以显著提升 AI 的整体理解能力。
虽然 GPT-5.4 支持 1M 上下文,但在 Codex 中使用时存在一个关键阈值:272K tokens。
根据当前规则:
也就是说,如果开发者输入非常大的上下文(例如完整项目代码),配额消耗将明显增加。
这种机制本质上是为了控制超长上下文带来的计算成本。
/fast 快速模式除了更大的上下文窗口外,Codex 还增加了一个新的性能选项:快速模式(Fast Mode)。
开发者可以通过输入: