Mistral: Mixtral 8x7B Instruct 是由 Mistral AI 开发的一款最先进的生成式 AI 模型。这款预训练的稀疏专家混合 (MoE) 模型经过专门微调,适用于聊天和指令遵循任务,使其在广泛的应用中具有高度通用性。它集成了8个不同的专家(前馈网络),总计达到470亿参数,提供卓越的性能和效率。 该模型擅长理解复杂指令并生成连贯、与上下文相关的响应。它提供了一个高达32K token的上下文窗口,允许深入的对话理解和处理长输入。最大输出为4K token,可以生成详细而全面的答案。关键功能包括支持流式响应和函数调用,增强了其在交互式和集成AI解决方案中的实用性。 Mixtral 8x7B Instruct 的定价具有竞争力,输入每百万 token 0.54 美元,输出每百万 token 0.54 美元,为高级 AI 需求提供了经济高效的解决方案。它最适合聊天应用程序、代码生成和翻译任务。虽然功能强大,但它不支持图像生成或互联网访问,将其优势集中在基于文本的交互上。
68%质量
33K上下文窗口
75%速度
✅ 最适合
聊天
代码生成
翻译
🚀 能力
JSON模式
函数调用
流式输出
❌ 限制
无图像生成
无互联网访问
规格
| 提供商 | mistralai |
| 上下文窗口 | 32,768 代币 |
| 最大输出 | 16,384 代币 |
| 最低套餐 | 平衡 |
价格
| 输入价格 | $0.5400 / 1M 代币 |
| 输出价格 | $0.5400 / 1M 代币 |
💡 PRO订阅可享20%折扣