国内互联网公司正在重新定义“企业如何使用大模型”。近期,京东与美团相继对内部 AI 使用策略进行调整:前者限制员工直接访问外部大模型服务,后者则对部分外部模型引入审批机制,并强化自研模型的优先级。
这一系列动作,表面是权限管理与安全策略升级,实质上反映出企业在 AI 进入核心业务后,对“模型主权、数据安全与成本控制”的系统性重构。
京东在 3 月底上线了一项较为严格的策略:限制员工直接访问包括 ChatGPT、DeepSeek、豆包、千问在内的外部 AI 服务。在访问被拦截时,系统会引导员工使用公司内部模型,或通过申请流程获取外部模型使用权限。
这一机制本质上是在构建“企业级 AI 网关(AI Gateway)”,其核心目标包括:
与此同时,京东正在将 AI 深度嵌入业务一线。例如此前为快递员配备的“AI 智慧员工助手”,已经基于作业数据对揽收、路径规划、派送效率进行优化。这类场景的特点是高频、实时、数据敏感,因此更依赖自研模型与内网部署。
从工程角度看,这意味着企业 AI 架构正在从“员工直连 API”升级为“统一调度 + 内部模型优先”的模式。
相比京东的“强管控”,美团采取的是更细粒度的策略调整。
其核心变化在于:不再推荐业务团队使用阿里云 Qwen 模型,若确有需求,需要提交详细说明并上报至较高层级审批。同时,美团明确优先推广其自研的 LongCat(龙猫)大模型。
这一策略呈现出几个关键信号:
值得注意的是,美团并未对所有外部模型一刀切。例如豆包等模型目前仍可使用且无需审批,这说明其策略更接近“动态白名单”,而非全面封禁。
两家公司的调整,背后有三个共通的技术驱动因素:
首先是数据安全与隐私风险。大模型调用通常以 prompt 形式传输上下文,一旦涉及用户数据、交易信息或内部策略,就可能构成潜在泄露风险。通过内网模型或代理层,可以实现数据脱敏、过滤与日志记录。
其次是推理成本与资源调度。外部 API 按 token 计费,且难以精细控制调用行为;而自研模型可以通过量化(如 INT8/INT4)、推理优化与算力调度降低单位成本。在高频业务中,这种差异会被迅速放大。
再次是能力可控性。自研模型允许企业针对特定场景进行微调(fine-tuning)或指令优化(instruction tuning),从而在推荐、搜索、履约等核心业务中获得更稳定表现。
从架构层面看,这类策略正在推动“企业级模型路由(Model Routing)”成为标准组件。
典型系统可能包括:
在这种体系下,“调用哪个模型”不再由开发者或员工自由决定,而是由系统策略动态分配。这与云计算中的流量调度或服务网格(Service Mesh)有相似之处。
京东与美团的动作,反映出一个更大的趋势:企业正在将大模型从“工具”升级为“基础设施”。
这一阶段的核心特征包括:
从长期看,这种模式将改变 AI 应用的开发方式——开发者不再关心“哪个模型最好”,而是通过统一接口调用“当前最合适的模型”。
在大模型早期,企业普遍采取“多模型并行试验”的策略,以快速探索能力边界;而随着 AI 深入核心业务,系统复杂度与风险同步上升,治理与收敛成为必然选择。
京东与美团的最新调整,正是这一阶段的缩影:当 AI 不再只是效率工具,而是直接参与业务决策与执行时,围绕模型的控制权、数据流与成本结构,都会被重新设计。
对于 AI 技术社区而言,这一变化的意义在于:下一阶段的竞争,不仅是模型能力,更是“谁能构建更高效、更安全、更可控的 AI 系统工程能力”。