阿里正式宣布开源三款全新中等规模的千问3.5系列模型,分别为 Qwen3.5-35B-A3B、Qwen3.5-122B-A10B 以及 Qwen3.5-27B。此次发布不仅延续了开源策略,更在模型性能与架构优化方面释放出一个清晰信号——模型能力的提升不再单纯依赖参数规模的堆叠。
官方披露,Qwen3.5-35B-A3B 在多项核心能力评测中已超越上一代更大规模模型 Qwen3-235B-A22B-2507 以及 Qwen3-VL-235B-A22B。这意味着在参数数量大幅减少的情况下,新一代模型仍然实现了能力跃迁。
同时,122B-A10B 与 27B 两个版本进一步缩小了中等规模模型与前沿大模型之间的差距,尤其在复杂代理任务和多步骤推理场景中表现突出。这一结果显示,中型模型正在成为高性能与高性价比之间的重要平衡点。
千问3.5系列的升级重点并不在于参数数量的简单扩张,而在于整体系统优化,包括:
这种技术路线意味着大模型能力提升正逐渐进入“精细化工程”阶段。模型智能水平的增长开始更多依赖结构创新与训练策略,而非单纯扩大模型体量。
基于 Qwen3.5-35B-A3B 的托管版本 Qwen3.5-Flash 已在阿里云百炼平台上线。官方定价显示,每百万 Token 输入成本低至 0.2 元,进一步降低企业使用高性能模型的门槛。
这一价格策略意味着,中型高性能模型不仅具备技术竞争力,也具备商业落地的可行性。对于需要大规模调用模型能力的企业而言,成本与性能之间的平衡正在变得更加可控。
此次发布释放出一个重要趋势:中等规模模型正成为产业应用的核心形态。它们在保证性能的同时,具备更好的部署效率、更低的推理成本,以及更灵活的定制能力。
随着架构优化和强化学习技术的持续进步,未来模型竞争的重点或将从“谁更大”转向“谁更高效”。千问3.5系列的开源,也为开源社区和企业开发者提供了新的技术基座。
在参数规模逐渐触顶的背景下,模型能力的增长路径正在发生转变——性能不再简单等同于规模,而是取决于更系统化的优化能力。