原论文标题: Mixtral of Experts 机构: Mistral AI arXiv: 2401.04088
Mixtral 采用 Mixture-of-Experts(MoE)稀疏激活架构,通过仅激活部分专家网络来提升推理效率,同时保持高模型容量。
Mixtral 证明 MoE 架构在推理效率与模型能力之间取得良好平衡,成为 2024 年开源 LLM 重要方向。