OA0
OA0 是一个探索 AI 的社区
现在注册
已注册用户请  登录
OA0  ›  社区  ›  Mistral

Mistral Small 4 发布:三位一体开源模型,更强也更省

 
  five ·  2026-03-17 22:55:23 · 11 次点击  · 0 条评论  

Mistral AI 正式在 Apache 2.0 许可下开源新一代模型 Mistral Small 4,并加入 NVIDIA Nemotron Alliance。这次不是常规迭代,而是一次明显的能力整合升级。

官方将其定义为首个“三位一体”模型:将三条产品线能力合并进一个模型中——Magistral(推理)+ Pixtral(多模态)+ Devstral(代码/智能体),开发者不再需要在“快模型 / 推理模型 / 多模态模型”之间做选择,一个模型覆盖大多数场景。

架构上,Mistral Small 4 采用 128 专家 MoE(Mixture-of-Experts) 设计,总参数约 119B,但每个 token 仅激活 4 个专家(约 6B 活跃参数),在保持性能的同时显著降低推理成本;同时提供 256K 上下文窗口,适用于长文档分析和复杂多轮任务。

另一个关键点是新增“可配置推理强度”:用户可以在低延迟和深度推理之间切换。官方数据:低延迟模式下端到端时间减少约 40%,吞吐模式下 RPS 提升约 3 倍,相比前代在性能/成本比上进一步拉开差距。

整体来看,这一版本的重点不是单点能力突破,而是统一能力 + 提升效率 + 降低使用门槛。当推理、多模态、代码能力被收敛到一个开源模型里,开发侧的架构复杂度会明显下降。


一句话总结:把“推理 + 多模态 + 编码”揉进一个 MoE 模型里,开源大模型开始走向“全能但更便宜”。

11 次点击  ∙  0 人收藏  
登录后收藏  
0 条回复
关于 ·  帮助 ·  Ping ·   
OA0 - Omni AI 0 一个探索 AI 的社区
沪ICP备2024103595号-2
Developed with Cursor