本文作者:访客

最强性价比?MiniMax开源推理模型M1:支持最高百万上下文输入

访客 2025-06-17 17:14:39 32993
最强性价比?MiniMax开源推理模型M1:支持最高百万上下文输入摘要: MiniMax发布新款开源大模型,称其性价比优于DeepSeek。6月17日,国内大模型独角兽MiniMax发布世界上第一个开源的大规模混合架构的推理模型MiniMax-M1,这也...

MiniMax发布新款开源大模型,称其性价比优于DeepSeek。

最强性价比?MiniMax开源推理模型M1:支持最高百万上下文输入

6月17日,国内大模型独角兽MiniMax发布世界上第一个开源的大规模混合架构的推理模型MiniMax-M1,这也是“MiniMaxWeek”系列发布活动的首个对外发布。

据MiniMax介绍,M1在面向生产力的复杂场景中能力是开源模型中的最好一档,超过国内的闭源模型,接近海外的最领先模型,同时又有业内最高的性价比。

MiniMax披露,M1的优势是支持目前业内最高的100万上下文的输入,和闭源模型里面的Google Gemini 2.5 Pro一样,是DeepSeek R1的8倍,以及业内最长的8万Token推理输出。

此次MiniMax M1的最大优势之一体现在成本上。根据M1大模型分析自身的技术优势显示,MiniMax M1采用低成本训练,仅用512块H800 GPU三周时间,成本53.47万美元(约385万元)。

MiniMax称,得益于以闪电注意力机制为主的混合架构,从而在计算长的上下文输入以及深度推理的时候显著高效。根据推算,在生成长度为10万tokens的场景下,MiniMax-M1的计算量(FLOPs)为DeepSeek R1的25%,在长文本处理任务中具备显著优势。

据M1的分析表示,MiniMax M1的核心优势在于超长上下文处理能力和极低的算力消耗,同时在复杂任务(如工具调用、长文本理解)中表现接近甚至超越 DeepSeek R1,提供更灵活的API定价策略,尤其适合需要处理百万级token的场景(如法律文档分析、代码库理解)。DeepSeek R1则在传统数学推理和编程基准测试中略占优势,但受限于上下文长度和计算效率,在长文本任务中明显落后M1。

价格方面,M1在MiniMax APP和Web上支持不限量免费使用。在API方面,第一档0-32k的输入长度时,输入0.8元/百万token, 输出8元/百万token;第二档32k-128k的输入长度时,输入1.2元/百万token, 输出16元/百万token;第三档128k-1M输入长度时,输入2.4元/百万token, 输出24元/百万token。

值得注意的是,DeepSeek已成为大模型厂商对标的“风向标”。此前字节跳动旗下火山引擎最新发布豆包大模型1.6,首创按“输入长度”区间定价,深度思考、多模态能力与基础语言模型统一价格,称其综合成本只有DeepSeek R1三分之一,每生成一条5秒的1080P视频只需3.67元,为行业最低。

不过,被视为集体竞争对手的DeepSeek R1也在持续升级中。5月29日,据DeepSeek公告,DeepSeek R1模型已完成小版本升级,当前版本为DeepSeek-R1-0528。用户通过官方网站、APP或小程序进入对话界面后,开启“深度思考”功能即可体验最新版本。API也已同步更新,调用方式不变。

新版DeepSeek R1针对“幻觉”问题进行了优化。与旧版相比,更新后的模型在改写润色、总结摘要、阅读理解等场景中,幻觉率降低45-50%左右,能够有效地提供更为准确、可靠的结果。

从社交媒体的反馈来看,网友最为关注的是此次DeepSeek R1更新后的思考时间变长。据测评显示,此次DeepSeek单任务处理时长可达30-60分钟。

阅读
分享