M8
平衡

Mistral: Mixtral 8x7B Instruct

来自 mistralai

Mistral: Mixtral 8x7B Instruct 是由 Mistral AI 开发的一款最先进的生成式 AI 模型。这款预训练的稀疏专家混合 (MoE) 模型经过专门微调,适用于聊天和指令遵循任务,使其在广泛的应用中具有高度通用性。它集成了8个不同的专家(前馈网络),总计达到470亿参数,提供卓越的性能和效率。 该模型擅长理解复杂指令并生成连贯、与上下文相关的响应。它提供了一个高达32K token的上下文窗口,允许深入的对话理解和处理长输入。最大输出为4K token,可以生成详细而全面的答案。关键功能包括支持流式响应和函数调用,增强了其在交互式和集成AI解决方案中的实用性。 Mixtral 8x7B Instruct 的定价具有竞争力,输入每百万 token 0.54 美元,输出每百万 token 0.54 美元,为高级 AI 需求提供了经济高效的解决方案。它最适合聊天应用程序、代码生成和翻译任务。虽然功能强大,但它不支持图像生成或互联网访问,将其优势集中在基于文本的交互上。

文本生成聊天机器人指令遵循MoE大型语言模型
68%质量
33K上下文窗口
75%速度
分类
经济
API访问
统一上下文
RAG + Knowledge Base
24/7支持
试用此模型比较模型

最适合

聊天
代码生成
翻译

🚀 能力

JSON模式
函数调用
流式输出

限制

无图像生成
无互联网访问

规格

提供商mistralai
上下文窗口32,768 代币
最大输出16,384 代币
最低套餐平衡

价格

输入价格$0.5400 / 1M 代币
输出价格$0.5400 / 1M 代币

💡 PRO订阅可享20%折扣

准备好试用 Mistral: Mixtral 8x7B Instruct 了吗?

注册即可获得1,000个免费代币

免费开始