Qwen3-235B-A22B-Instruct-2507 是一款先进的多语言、指令微调的Mixture-of-Experts (MoE) 语言模型,基于强大的 Qwen3-235B 架构构建。它在每次前向传递中以220亿活跃参数运行,使其在广泛的任务中表现出高效率。该模型在通用文本生成方面表现出色,包括复杂的指令遵循、逻辑推理、数学问题解决、代码生成和复杂的工具使用。它拥有原生的262K上下文长度,支持广泛的理解和生成,并且不使用“思考模式”(<think> 块)。 与基础版本相比,此版本在知识覆盖、长上下文推理能力和编码基准测试方面取得了显著提升。它在开放式任务中表现出卓越的对齐性,在多语言理解、高级数学推理(例如 AIME、HMMT)以及 Arena-Hard 和 WritingBench 等对齐评估方面尤为强大。最大输出为4K tokens,定价具有竞争力,输入/输出每1M tokens分别为$0.07/$0.46,是一款多功能选择。该模型支持函数、代码和流式传输功能,可在 Multi AI 免费访问。
75%质量
262K上下文窗口
70%速度
✅ 最适合
聊天
代码生成
数学推理
🚀 能力
函数
代码
流式传输
❌ 限制
不支持图像生成
无互联网访问
规格
| 提供商 | qwen |
| 上下文窗口 | 262,144 代币 |
| 最大输出 | 4,096 代币 |
| 最低套餐 | 经济 |
价格
| 输入价格 | $0.0710 / 1M 代币 |
| 输出价格 | $0.4630 / 1M 代币 |
💡 PRO订阅可享20%折扣