OA0
OA0 是一个探索 AI 的社区
现在注册
已注册用户请  登录
OA0  ›  社区  ›  Gemini

Gemini Enterprise 增长 40% 与每分钟 160 亿 Tokens:Google 如何用“生成式开发 + Agent 化工作流”重塑 AI 使用曲线

 
  authority ·  2026-04-23 16:13:33 · 2 次点击  · 0 条评论  

当大模型从“可用”进入“高频使用”阶段,衡量竞争力的指标正在发生变化:不再只是参数规模或 benchmark,而是真实使用强度与开发渗透率。最新披露的数据给出了一个清晰信号——企业级 AI 正在跨过临界点。

核心信息包括:

  • Gemini Enterprise 第一季度付费 MAU 环比增长 40%
  • 内部新代码中约 75% 由 AI 生成
  • Google Cloud AI 使用量达到每分钟 160 亿 tokens

这些数字背后,反映的是从模型能力到工程体系的一次跃迁。


使用曲线拐点:从“尝试 AI”到“依赖 AI”

Gemini Enterprise 的 40% 环比增长,本质上不是单一产品的成功,而是企业使用范式的变化:

  • 从零散试用(ad-hoc usage)转向嵌入式使用(embedded usage)
  • 从“人调用模型”转向“工作流依赖模型”
  • 从单点工具(如写作辅助)扩展到跨系统任务执行

这类增长通常意味着一个关键转折:AI 已经成为生产系统的一部分,而非外部增强工具

结合此前发布的 Workspace Intelligence,可以看到一个更完整的路径——通过统一上下文层 + Gemini 推理,将 AI 深度嵌入 Gmail、Docs、Sheets 等日常工具中,使调用行为“隐形化”。


75% AI 生成代码:软件工程范式正在重写

“75% 新代码由 AI 生成”这一数据,比表面更值得关注。

它并不意味着开发者被替代,而是说明:

  • 代码生产从“手写优先”转向“生成优先 + 人类校验”
  • 开发者角色从 coder 向 reviewer / orchestrator 转变
  • 软件工程流程开始围绕 AI 重构

在工程实践中,这通常体现为:

  • 使用 AI 生成初始函数或模块骨架
  • 通过自然语言描述需求,而非直接编码
  • 将 AI 纳入 CI/CD 流程(例如自动生成测试、修复 bug)

这种模式的关键不在生成本身,而在上下文质量:AI 是否理解代码库、依赖关系与历史变更。

这正是 Gemini 与 Workspace Intelligence 结合的价值——通过企业级上下文,让生成结果具备“代码库感知能力”。


每分钟 160 亿 Tokens:推理成为新的“基础设施负载”

Token 消耗速率是另一个更底层的信号。

达到每分钟 160 亿 tokens,意味着:

  • 推理调用已经进入“持续高负载”状态
  • AI 请求从离散事件变为流式流量(streaming workload)
  • 基础设施必须支持高并发、低延迟与动态扩展

从系统设计角度看,这与传统 Web 服务有本质不同:

  • 请求更长(长上下文、多轮推理)
  • 计算更重(Transformer + MoE 推理)
  • 状态更复杂(会话记忆、上下文检索)

这也是为什么 Google 同步推进 TPU v8(尤其是 TPU 8i)的原因——推理优化正在成为核心竞争点。


从 Token 到系统效率:AI 成本模型正在改变

高 token 消耗带来的直接问题是成本。

但值得注意的是,成本模型正在发生结构性变化:

  • 单次调用成本下降(硬件与优化)
  • 总调用次数暴涨(使用场景扩展)
  • 单位业务价值提升(自动化程度更高)

这使得企业更关注“每个 token 的产出价值”,而不是单纯压低调用成本。

例如:

  • 一个自动生成的报告可能消耗数万 tokens,但节省数小时人工
  • 一个 Agent 自动完成任务编排,可替代多次人工操作

因此,优化方向从“减少调用”转向“提升调用效率”。


AI 工程栈的三层重构

将上述数据放在一起,可以看到一个逐渐清晰的技术栈演进:

1. 应用层:Agent 化工作流

AI 不再是 API,而是任务执行单元。开发者更关注:

  • 如何定义任务
  • 如何组织多步骤推理
  • 如何与外部系统集成(如 CRM、项目管理工具)

2. 上下文层:企业知识与用户行为建模

Workspace Intelligence 代表的,是一个新的基础组件:

  • 跨应用数据聚合
  • 实时上下文检索
  • 用户与组织级个性化建模

3. 基础设施层:推理优先的算力设计

TPU v8、MoE 优化、低延迟互连等技术,都是为了解决:

  • 高并发推理
  • 大上下文窗口
  • 多租户隔离

一个值得警惕的趋势:AI 使用的“不可见化”

随着 AI 深度嵌入工作流,一个潜在变化正在发生:

用户可能不再意识到自己在“使用 AI”。

例如:

  • 自动生成邮件回复
  • 自动整理会议纪要
  • 自动更新文档或数据表

这带来两个值得关注的问题:

  • 可控性下降:用户难以判断哪些内容由 AI 生成
  • 错误传播风险:错误可能在多个系统中被自动扩散

因此,如何在“无感使用”与“可审计性”之间取得平衡,将成为下一阶段的重要议题。


结语:从模型竞争到使用密度竞争

Gemini Enterprise 的增长、代码生成比例以及 token 消耗,指向同一个结论:

AI 的竞争,正在从“谁的模型更强”,转向“谁的使用更深、更广、更高频”。

在这一阶段,决定胜负的因素包括:

  • 上下文整合能力
  • Agent 编排能力
  • 推理基础设施效率

当每分钟 160 亿 tokens 成为常态,AI 不再是“智能插件”,而是数字基础设施的一部分。而真正的挑战,也从训练模型,转向如何让模型高效、安全、持续地参与现实世界的工作流。

2 次点击  ∙  0 人收藏  
登录后收藏  
0 条回复
关于 ·  帮助 ·  PING ·  隐私 ·  条款   
OA0 - Omni AI 0 一个探索 AI 的社区
沪ICP备2024103595号-2
耗时 16 ms
Developed with Cursor