Qwen3-30B-A3B-Instruct-2507 ist ein leistungsstarkes Mixture-of-Experts (MoE) Sprachmodell mit 30.5 Milliarden Parametern, entwickelt von Qwen. Mit 3.3 Milliarden aktiven Parametern pro Inferenz arbeitet dieses Modell im Nicht-Denk-Modus, optimiert für überlegene Anweisungsbefolgung, robustes mehrsprachiges Verständnis und erweiterte Agenten-Tool-Nutzungsfähigkeiten. Es wurde sorgfältig auf umfangreichen Anweisungsdaten nachtrainiert und zeigt eine wettbewerbsfähige Leistung über kritische Benchmarks hinweg. Dieses Modell erzielt außergewöhnliche Ergebnisse in Argumentation (AIME, ZebraLogic), Codierung (MultiPL-E, LiveCodeBench) und Alignment (IFEval, WritingBench). Es übertrifft seine Nicht-Instruct-Variante bei subjektiven und offenen Aufgaben erheblich, während es gleichzeitig eine starke faktische Genauigkeit und Codierungsfähigkeiten beibehält. Zu den wichtigsten Spezifikationen gehören ein riesiges Kontextfenster von 262K Tokens und eine maximale Ausgabe von 4K Tokens. Die Preise sind mit 0.08 $ pro 1 Million Eingabetokens und 0.33 $ pro 1 Million Ausgabetokens sehr wettbewerbsfähig, mit KOSTENLOSEM Zugang auf Multi AI.
✅ Am besten für
🚀 Fähigkeiten
❌ Einschränkungen
Spezifikationen
| Anbieter | qwen |
| Kontextfenster | 262,144 Token |
| Max. Ausgabe | 4,096 Token |
| Mindestplan | Economy |
Preise
| Eingabepreis | $0.0800 / 1M Token |
| Ausgabepreis | $0.3300 / 1M Token |
💡 Mit PRO-Abo werden die Kosten um 20% reduziert
Bereit, Qwen: Qwen3 30B A3B Instruct 2507 auszuprobieren?
Erhalten Sie 1.000 Token kostenlos bei der Anmeldung
Kostenlos starten