大模型的竞争,正在从“能说什么”转向“能做什么”。3 月 30 日,千问启动 AI 体验活动,开放包括 AI 打车、AI 充话费在内的一系列“AI 办事”能力,并邀请用户作为体验官参与反馈。这一动作的核心不在于功能本身,而在于一个更深层的信号:对话式 AI 正在向可执行的 Agent 系统演进。
过去两年,大模型的主要价值集中在内容生成与知识问答。但随着工具调用(tool use)与任务规划(task planning)能力的成熟,AI 开始具备直接调用服务、完成现实世界操作的能力。
千问此次推出的“AI 办事”,本质上是将自然语言接口与具体业务 API 打通,使用户通过一句话完成原本需要多步操作的流程。例如用户输入“帮我手机充 200”,系统即可完成充值流程;输入“打车回家”,则能基于历史信息自动选择地址并下单。
这标志着 AI 从“交互层”进入“执行层”。
从技术角度看,这类“AI 办事”能力通常依赖三大模块:
用户指令往往包含多个约束条件,例如:
模型需要在一次输入中完成意图拆解,并结构化为可执行参数。这一过程类似于将自然语言转换为 API 调用参数,例如构造类似 POST /ride/order 的请求体。
解析后的结构化信息会被映射到具体服务接口,例如打车平台或运营商充值接口。当前主流实现方式包括:
关键在于让模型不仅“知道调用哪个工具”,还要“知道何时调用、如何调用”。
千问在此次体验中强调的能力之一是“记住家庭和公司地址”,以及未来的“自动充值”等功能。这依赖于:
这些能力使 AI 从一次性响应转变为持续服务系统。
值得注意的是,官方提到未来将支持“余额不足自动充值”等主动服务能力。这意味着系统将从被动执行用户指令,升级为基于状态触发的自动化行为。
这一演进路径与当前 AI Agent 领域的主流趋势一致:
实现主动服务的关键在于事件驱动架构(event-driven architecture),例如当检测到账户余额低于阈值时触发充值流程。
相比纯对话模型,“AI 办事”面临更复杂的工程问题:
这使得 Agent 系统更接近“分布式系统 + AI 模型”的融合体,而非单一模型问题。
“AI 办事”的另一层意义在于入口之争的升级。
如果用户可以通过一句话完成打车、充值、订票等操作,那么传统 App 的交互入口将被弱化,AI 可能成为新的统一入口。这对生态的影响深远:
千问此次开放“AI 办事”,本质上是从 Copilot(辅助)向 Autopilot(自动执行)的关键一步。对 AI 技术社区而言,这不仅是一个产品更新,更是一个范式变化:
大模型不再只是“理解与生成语言”的工具,而是开始成为“调度现实世界服务”的执行中枢。
当 Agent 能够稳定、安全地完成复杂任务时,AI 的价值将不再局限于信息处理,而是直接参与并重塑数字服务的运行方式。