Qwen3-30B-A3B-Instruct-2507 est un puissant modèle de langage Mixture-of-Experts (MoE) de 30.5 milliards de paramètres développé par Qwen. Avec 3.3 milliards de paramètres actifs par inférence, ce modèle fonctionne en mode non-réfléchissant, optimisé pour un suivi d'instructions supérieur, une compréhension multilingue robuste et des capacités avancées d'utilisation d'outils agentiques. Il a été méticuleusement post-entraîné sur de vastes données d'instructions, démontrant des performances compétitives sur des benchmarks critiques. Ce modèle présente des résultats exceptionnels en raisonnement (AIME, ZebraLogic), en codage (MultiPL-E, LiveCodeBench) et en alignement (IFEval, WritingBench). Il surpasse significativement sa variante non-instruct sur les tâches subjectives et ouvertes, tout en conservant une forte précision factuelle et des compétences en codage. Les spécifications clés incluent une vaste fenêtre contextuelle de 262K tokens et une sortie maximale de 4K tokens. La tarification est très compétitive à 0.08 $ par million de tokens d'entrée et 0.33 $ par million de tokens de sortie, avec un accès GRATUIT disponible sur Multi AI.
✅ Idéal pour
🚀 Capacités
❌ Limitations
Spécifications
| Fournisseur | qwen |
| Fenêtre de contexte | 262,144 tokens |
| Sortie max | 4,096 tokens |
| Forfait minimum | Économique |
Tarifs
| Prix d'entrée | $0.0800 / 1M tokens |
| Prix de sortie | $0.3300 / 1M tokens |
💡 Avec l'abonnement PRO, le coût est réduit de 20%
Prêt à essayer Qwen: Qwen3 30B A3B Instruct 2507 ?
Obtenez 1 000 tokens gratuits à l'inscription
Commencer gratuitement