2026年2月26日,阿里巴巴正式揭开了 Qwen 3.5 系列模型的面纱。这一代模型的发布不仅是参数规模的更迭,更是一场关于“计算效率”与“商业民主化”的革命。面对全球顶尖的闭源模型,Qwen 3.5 试图通过开源路径和降阶成本,重新定义 AI 市场的准入门槛。
Qwen 3.5 系列此次同步推出了四款核心型号,精准覆盖了从轻量级应用到复杂企业级任务的需求:
- Qwen 3.5-Flash:极致速度与低成本的代表。
- Qwen 3.5-27B:平衡性能与部署门槛的黄金尺寸。
- Qwen 3.5-35B-A3B:采用 MoE 架构的高效能型号。
- Qwen 3.5-122B-A10B:旨在对标最强闭源旗舰的重型武器。
所有型号均原生支持文本、图像和视频的综合输入,实现了全系多模态化。
Qwen 3.5 最引人注目的技术成就之一,是其架构优化的显著效果。
数据表明,体积较小的 Qwen 3.5-35B-A3B 在实际效能上竟然超越了上一代体积巨大的 Qwen 3-235B-A22B。这标志着模型开发的逻辑已从“单纯追求参数量”转向“追求数据质量与架构效率”。在处理复杂的智能体(Agent)场景时,Qwen 3.5 展现出了极高的推断准确度和逻辑稳定性。
如果说技术是底气,那么定价则是 Qwen 3.5 攻城略地的利刃。
- Qwen 3.5-Flash 定价:输入 100 万 Token 仅需 $0.10,输出 100 万 Token 仅需 $0.40。
- 竞争对比:这一价格仅为 GPT-5 mini 或 Claude Sonnet 4.5 的几分之一。
这种近乎“粉碎性”的定价,结合其支持的 100 万 Token 超长上下文,使得企业在大规模部署高效能 AI 服务时,预算压力降到了历史最低点。
不同于竞争对手的封闭生态,阿里巴巴宣布 Qwen 3.5 全系列同步上架 Hugging Face 和 ModelScope,并采用 Apache License 2.0 协议。这意味着全球开发者不仅可以商用,还能自由修改与分发。
这种开放策略旨在迅速吸引开发者进入 Qwen 生态系统,利用全球社区的力量来完善其工具链,从而在应用层实现对闭源巨头的包抄。
Qwen 3.5 的发布标志着国产大模型在“工程化落地”上迈出了关键一步。通过在高性能与低成本之间找到完美的平衡点,阿里巴巴不仅为企业级 AI 应用提供了更优的选择,也迫使全球 AI 厂商在定价与开放性上重新进行自我审视。