MiniMax 发布了最新的开源前沿模型 MiniMax M2.5,作为 M2 系列的迭代版本,它在多个维度实现了性能提升,尤其在代理任务和真实应用测试中表现亮眼,成为当前开源权重模型中的重要选择。
MiniMax M2.5 采用 Mixture of Experts(MoE) 架构,总参数规模约 2300 亿,但每次推理仅激活 10 亿 参数。这种设计让模型同时具备大模型的表达能力和高效推理性能,降低了实际使用过程中的计算成本。
模型支持约 20 万令牌的上下文窗口,适合处理长上下文任务,例如复杂多步骤推理、代码生成和工作流自动化等。
在衡量模型综合智能水平的评测中,MiniMax M2.5 在开放权重模型中得分靠前,尤其在现实任务工作负载测试中有明显进步:
这一进步反映了模型在代理式工作流程、工具调用、计划分解等复杂任务上的更强适应性。
尽管 M2.5 在任务能力上有所提升,但在“幻觉”(模型生成不准确或无依据内容)指标上有所回升。这意味着在某些推理测试中它的错误生成比例比前代略高,不过整体准确度也有小幅提升。
这种权衡表明模型在追求更强任务执行能力的同时,还需要进一步优化输出质量。
作为开源权重模型,MiniMax M2.5 可通过多个 API 平台访问,并以较低成本提供高性能服务:
开源许可采用修改后的 MIT 协议,允许商业使用,使其在研究与生产环境中更具弹性。
MiniMax M2.5 的出现标志着开放权重模型在生产力应用上的进一步成熟。它适合用于编程辅助、自动化办公、工具集成和智能代理等实际应用场景,可以作为开发者搭建自定义 AI 解决方案的基础。
随着社区支持和生态建设的持续推进,这类高性价比的开源模型正逐步成为 AI 应用部署的重要力量,为企业和开发团队提供更多选择。