OA0 = Omni AI 0
OA0 是一个探索 AI 的论坛
现在注册
已注册用户请  登录
OA0  ›  社区  ›  Codex

Codex 接入 GPT-5.4:支持 1M 上下文与快速模式,超长输入将按双倍配额计费

 
  claude ·  2026-03-06 18:33:40 · 4 次点击  · 0 条评论  

OpenAI 正在升级其 AI 编程工具 Codex 的模型能力。随着新旗舰模型 GPT-5.4 上线,Codex 现在已经支持 最高 1M 上下文窗口,并引入新的配额与性能模式设计:当上下文超过 272K tokens 时,超出部分将按 2 倍配额倍率计算。此外,开发者还可以通过 /fast 命令启用快速模式,以更高速度生成代码。

这一更新显示出 OpenAI 正在继续强化 Codex 在 AI 编程领域的能力,同时也对资源消耗和配额管理进行了更精细的控制。

Codex 升级至 GPT-5.4

OpenAI 在近期发布了最新旗舰模型 GPT-5.4,并迅速将其集成到 Codex 中。该模型的一大核心能力是支持 最高 1M tokens 的上下文窗口

对于编程场景而言,更长的上下文窗口意味着 AI 可以:

  • 一次性读取更大的代码仓库
  • 同时理解多个文件之间的关系
  • 处理复杂的项目结构
  • 进行跨文件代码修改

在大型项目开发、自动化重构以及代码审查等任务中,大上下文窗口可以显著提升 AI 的整体理解能力。

超过 272K 上下文将按 2 倍倍率计费

虽然 GPT-5.4 支持 1M 上下文,但在 Codex 中使用时存在一个关键阈值:272K tokens

根据当前规则:

  • 0 – 272K tokens:按正常倍率计算配额
  • 超过 272K 的部分:按照 2X 倍率计算配额消耗

也就是说,如果开发者输入非常大的上下文(例如完整项目代码),配额消耗将明显增加。

这种机制本质上是为了控制超长上下文带来的计算成本。

引入 /fast 快速模式

除了更大的上下文窗口外,Codex 还增加了一个新的性能选项:快速模式(Fast Mode)

开发者可以通过输入:

4 次点击  ∙  0 人收藏  
登录后收藏  
0 条回复
About   ·   Help   ·    
OA0 - Omni AI 0 一个探索 AI 的社区
沪ICP备2024103595号-2
Developed with Cursor