Qwen3-235B-A22B-Thinking-2507 ist ein hochmodernes, quelloffenes Mixture-of-Experts (MoE) Sprachmodell, das speziell für anspruchsvolle Denkaufgaben entwickelt wurde. Mit der Aktivierung von 22B seiner 235B Parameter pro Vorwärtsdurchlauf ist diese Variante darauf ausgelegt, strukturiertes logisches Denken, Mathematik, Wissenschaft und die Generierung von Langform-Inhalten zu verbessern. Es zeigt starke Benchmark-Leistungen bei AIME, SuperGPQA, LiveCodeBench und MMLU-Redux und unterstützt nativ ein umfangreiches Kontextfenster von bis zu 262.144 Token. Dieses „Thinking-Only“-Modell erzwingt einen speziellen Denkmodus (</think>) und ist für hohe Token-Ausgaben optimiert, wobei es in anspruchsvollen Domänen bis zu 81.920 Token generieren kann. Es ist instruktionsgesteuert, was es sehr effektiv für schrittweises Denken, Werkzeugnutzung und agentenbasierte Workflows, einschließlich mehrsprachiger Aufgaben, macht. Mit einer maximalen Ausgabe von 4K Token und wettbewerbsfähigen Preisen von 0,11 $/0,60 $ pro 1M Eingabe-/Ausgabe-Token stellt es die leistungsfähigste Open-Source-Variante der Qwen3-235B-Serie dar, die in strukturierten Denk-Anwendungsfällen oft viele geschlossene Modelle übertrifft.
✅ Am besten für
🚀 Fähigkeiten
❌ Einschränkungen
Spezifikationen
| Anbieter | qwen |
| Kontextfenster | 131,072 Token |
| Max. Ausgabe | 4,096 Token |
| Mindestplan | Economy |
Preise
| Eingabepreis | Kostenlos / 1M Token |
| Ausgabepreis | Kostenlos / 1M Token |
💡 Mit PRO-Abo werden die Kosten um 20% reduziert
Bereit, Qwen: Qwen3 235B A22B Thinking 2507 auszuprobieren?
Erhalten Sie 1.000 Token kostenlos bei der Anmeldung
Kostenlos starten