MiniMax重磅开源M1模型:百万上下文超DeepSeek R1,实现性能与效率双杀

MiniMax 正式开源其首个推理模型 M1,原生支持百万级上下文长度,在推理效率、计算成本和复杂任务能力上展现出与 DeepSeek R1、Qwen3-235B 等模型不同的技术路径与性能表现。此外,得益于其高效的 Lightning Attention 机制,在生成长度为 10 万 tokens 的场景下,MiniMax-M1 的计算量(FLOPs)仅为 DeepSeek R1。在标准基准测试中,MiniMax-M1 在复杂软件工程、工具使用与长上下文任务等方面表现突出,整体表现已达到甚至。