当大模型从“可用”进入“高频使用”阶段,衡量竞争力的指标正在发生变化:不再只是参数规模或 benchmark,而是真实使用强度与开发渗透率。最新披露的数据给出了一个清晰信号——企业级 AI 正在跨过临界点。
核心信息包括:
这些数字背后,反映的是从模型能力到工程体系的一次跃迁。
Gemini Enterprise 的 40% 环比增长,本质上不是单一产品的成功,而是企业使用范式的变化:
这类增长通常意味着一个关键转折:AI 已经成为生产系统的一部分,而非外部增强工具。
结合此前发布的 Workspace Intelligence,可以看到一个更完整的路径——通过统一上下文层 + Gemini 推理,将 AI 深度嵌入 Gmail、Docs、Sheets 等日常工具中,使调用行为“隐形化”。
“75% 新代码由 AI 生成”这一数据,比表面更值得关注。
它并不意味着开发者被替代,而是说明:
在工程实践中,这通常体现为:
这种模式的关键不在生成本身,而在上下文质量:AI 是否理解代码库、依赖关系与历史变更。
这正是 Gemini 与 Workspace Intelligence 结合的价值——通过企业级上下文,让生成结果具备“代码库感知能力”。
Token 消耗速率是另一个更底层的信号。
达到每分钟 160 亿 tokens,意味着:
从系统设计角度看,这与传统 Web 服务有本质不同:
这也是为什么 Google 同步推进 TPU v8(尤其是 TPU 8i)的原因——推理优化正在成为核心竞争点。
高 token 消耗带来的直接问题是成本。
但值得注意的是,成本模型正在发生结构性变化:
这使得企业更关注“每个 token 的产出价值”,而不是单纯压低调用成本。
例如:
因此,优化方向从“减少调用”转向“提升调用效率”。
将上述数据放在一起,可以看到一个逐渐清晰的技术栈演进:
AI 不再是 API,而是任务执行单元。开发者更关注:
Workspace Intelligence 代表的,是一个新的基础组件:
TPU v8、MoE 优化、低延迟互连等技术,都是为了解决:
随着 AI 深度嵌入工作流,一个潜在变化正在发生:
用户可能不再意识到自己在“使用 AI”。
例如:
这带来两个值得关注的问题:
因此,如何在“无感使用”与“可审计性”之间取得平衡,将成为下一阶段的重要议题。
Gemini Enterprise 的增长、代码生成比例以及 token 消耗,指向同一个结论:
AI 的竞争,正在从“谁的模型更强”,转向“谁的使用更深、更广、更高频”。
在这一阶段,决定胜负的因素包括:
当每分钟 160 亿 tokens 成为常态,AI 不再是“智能插件”,而是数字基础设施的一部分。而真正的挑战,也从训练模型,转向如何让模型高效、安全、持续地参与现实世界的工作流。