在中国大模型阵营中,长期被视为“开源派”的代表之一。然而,随着最新多模态模型 Qwen3.5-Omni 的发布,这一标签正在发生微妙变化:最先进能力不再开放权重,而是仅通过云端 API 提供服务。这一转向不仅关乎单一产品策略,更折射出多模态时代 AI 基础设施、成本结构与商业模式的深层变化。
过去两年,Qwen 系列模型通过持续开源(如 7B、14B、甚至 70B 级别模型)快速积累开发者生态,在国内外形成了较强的影响力。这一策略本质上类似“以开源换入口”:
- 降低开发者试用门槛
- 扩大模型调用规模
- 在企业侧建立技术心智
但 Qwen3.5-Omni 的发布标志着一个明确分层:
这种结构与近年来的路径高度一致:开放基础能力,封装前沿能力。
Qwen3.5-Omni 的核心特征在于“全模态统一”:
支持文本、图像、音频、视频的联合理解与生成。这类模型的技术复杂度远高于传统 LLM,主要体现在三个层面:
多模态模型通常需要:
这直接导致:
与纯文本模型相比,多模态推理涉及:
即便经过优化,单次请求成本仍明显高于文本模型。这意味着:
一旦开源权重,竞争对手可以“复制能力 + 优化成本”,迅速形成价格竞争
多模态系统不仅是模型问题,更是系统工程问题:
这些能力更适合通过 API 形态封装,而非简单权重分发。
Qwen3.5-Omni 的闭源,并非单纯的技术保守,而是与云业务深度绑定的结果。
通过 API 提供模型能力,意味着:
这与传统 SaaS 模式不同,大模型 API 更接近“算力即服务(Compute-as-a-Service)”。
开源最强模型会带来两个问题:
闭源 API 则可以:
这一策略转向,对开发者社区的影响是“双刃剑”。
这意味着未来开发者将分化为两类:
Qwen3.5-Omni 的发布释放出一个清晰信号:
大模型行业正在进入“能力分层 + 商业分层”的新阶段
可以预见的趋势包括:
开源模型将更多承担:
而最前沿能力将逐步转向闭源。
相比文本模型:
拥有算力与基础设施的公司,将:
Qwen3.5-Omni 的闭源策略,本质上是一个信号:
AI 竞争的焦点,正在从“谁的模型更强”转向“谁能更好地交付模型能力”。
当多模态成为主流,模型本身只是系统的一部分,真正的竞争壁垒将来自:
对于 AI 技术社区而言,这意味着一个现实转变:
未来的创新,不仅发生在模型内部,也发生在模型之外的整个平台层。