收藏 200亿AI独角兽反击 MiniMax首款推理模型对标DeepSeeK 算力成本仅53万美元
当DeepSeek的推理模型震撼全球AI圈时,一家估值200亿人民币的中国独角兽正悄然磨刀霍霍,准备用仅53万美元的训练成本和颠覆性架构设计,向这个新贵发起正面挑战。
17日,AI创业公司MiniMax发布了其首款推理模型M1,根据基准评测,M1性能超越国内闭源模型,接近海外最领先模型,部分任务超过DeepSeek、阿里、字节,以及OpenAI、谷歌和Anthropic等最新最强的开闭源模型。
这场较量的核心不仅在于性能,更在于效率——与DeepSeek R1相比,在生成64K token时,M1消耗的算力不到其50%;在100K token时,仅为其25%。
MiniMax称,M1的整个强化学习过程仅使用512块英伟达H800 GPU训练三周,租赁成本53.74万美元(约合380万人民币)。这一成本控制"比最初预期少了一个数量级"。MiniMax创始人&CEO闫俊杰发文表示:“第一次感觉到大山不是不能翻越。”
MiniMax-M1:混合专家架构与线性注意力机制
MiniMax-M1采用了混合专家(MoE)架构和线性注意力机制(Lightning Attention),这是对传统Transformer架构计算瓶颈的直接挑战。
“这种设计理论上能够高效地将推理长度扩展到数十万 token。”MiniMax表示,这还能带来计算成本的大幅下降,“这个特性使我们在训练和推理的时候都有很大的算力效率优势”。
该模型总参数达4560亿,每token激活参数459亿,支持高达100万Token的上下文输入——这一数字是DeepSeek R1的8倍,与谷歌Gemini 2.5 Pro并列业内最高。
在17个主流评测集的测试中,M1在软件工程能力测试SWE-bench上取得超过55%的成绩,虽未达到海外顶尖模型水准,但超过了DeepSeek-R1以及阿里和字节的同类产品。在长上下文理解任务中,M1在三项基准测试上全面超越所有开源模型,仅以微弱差距落后于Gemini 2.5 Pro,位列全球第二。
成本革命:380万人民币的强化学习实验
MiniMax声称,M1的整个强化学习过程仅使用512块英伟达H800 GPU训练三周,租赁成本53.74万美元(约合380万人民币)。这一成本控制"比最初预期少了一个数量级"。
公司还开发了名为CISPO的新型强化学习算法,在数学测试基准AIME的实验中,该算法比字节近期提出的DAPO算法实现了两倍加速,仅需50%的训练步骤就能达到相同表现。
与DeepSeek R1相比,在生成64K token时,M1消耗的算力不到其50%;在100K token时,仅为其25%。
区间定价策略!MiniMax还有更多更新
目前,MiniMax-M1已经对外开源,并在MiniMax APP和Web端免费升级。在API价格方面,MiniMax采用了与字节豆包1.6相同的"区间定价"策略。
在0-32k和32k-128k输入长度区间,M1的价格相比DeepSeek-R1(输入4元/百万token,输出16元/百万token)更具性价比。对于128k-1M的最长输入区间,DeepSeek模型甚至不支持此长度。
这一定价策略使M1成为继豆包之后的又一"价格杀手",开发者评价其为"性价比新王"。
"AI六小龙"的生存博弈
作为腾讯和阿里巴巴支持的"AI六小龙"成员之一,MiniMax仍在坚持基础研究。MiniMax创始人兼CEO闫俊杰发文表示:"第一次感觉到大山不是不能翻越。"
据搜狐科技报道,M1仅是该公司为期5天发布周的首个产品,后续还将发布智能体应用,并在视频、音乐等模型层面带来更多更新。
MiniMax认为,M1的高效架构将在未来智能体应用中具有独特优势。"未来智能体需要数十到数百个回合进行推理,同时整合来自不同来源的长上下文信息,"该公司表示。目前,MiniMax正在海外内测智能体应用,主打代码、多模态等能力。