MiniMaxAI MiniMax-M2.5 has 230b parameters and 10b active parameters
产品/方法概述
- 一句话介绍: MiniMax-M2.5 是一款采用 MoE 架构的高性能大语言模型,拥有 230B 总参数但激活参数仅为 10B。
- 核心问题: 解决了高性能 LLM 对推理算力消耗过大、运行成本高昂的痛点,实现了极高参数量与极低推理负担的平衡。
- 实现方式: 通过专家混合架构 (MoE) 优化,将激活参数压缩至 10B,使超大规模模型在消费级或中端硬件上的高效运行成为可能。