MiMo-V2-Flash是小米开发的一款开源基础语言模型,可在Multi AI上免费使用。这款先进的Mixture-of-Experts (MoE) 模型拥有3090亿总参数和150亿活跃参数,采用混合注意力架构,性能卓越。它支持混合思维切换和256K的超大上下文窗口,使其在处理复杂任务时非常高效。 该模型在推理、编码和代理场景中表现尤为出色。它在SWE-bench Verified和SWE-bench Multilingual上获得了全球开源模型排名第一的成绩,表现与Claude Sonnet 4.5相当,而成本却大大降低。为了在与Claude Code或Roo Code等代理工具集成时获得最佳和最快的性能,建议关闭推理模式。 主要规格包括262K token的上下文窗口和65K token的最大输出。它提供流式传输、函数调用和长上下文能力。在Multi AI上免费访问这款强大的AI模型。
50%质量
262K上下文窗口
50%速度
✅ 最适合
代码生成
复杂推理
代理工作流
长文档分析
🚀 能力
流式输出
函数调用
长上下文窗口
规格
| 提供商 | xiaomi |
| 上下文窗口 | 262,144 代币 |
| 最大输出 | 65,536 代币 |
| 最低套餐 | 经济 |
价格
| 输入价格 | 免费 / 1M 代币 |
| 输出价格 | 免费 / 1M 代币 |
💡 PRO订阅可享20%折扣