Qwen3-235B-A22B-Instruct-2507 ist ein fortschrittliches mehrsprachiges, auf Anweisungen abgestimmtes Mixture-of-Experts (MoE)-Sprachmodell, das auf der robusten Qwen3-235B-Architektur basiert. Es arbeitet mit 22 Milliarden aktiven Parametern pro Vorwärtsdurchlauf, was es für eine Vielzahl von Aufgaben hocheffizient macht. Dieses Modell zeichnet sich durch die allgemeine Textgenerierung aus, einschließlich komplexer Anweisungsbefolgung, logischer Argumentation, mathematischer Problemlösung, Codegenerierung und ausgeklügelter Werkzeugnutzung. Es verfügt über eine native Kontextlänge von 262K, die ein umfassendes Verständnis und eine umfassende Generierung ermöglicht, und verwendet keine „Denkmodus“-Blöcke (<think>). Im Vergleich zu seiner Basisvariante bietet diese Version erhebliche Verbesserungen in der Wissensabdeckung, den Argumentationsfähigkeiten im langen Kontext und der Leistung bei Code-Benchmarks. Es zeigt eine überlegene Ausrichtung auf offene Aufgaben und ist besonders stark im mehrsprachigen Verständnis, in mathematischen Argumentationen (z. B. AIME, HMMT) und in Ausrichtungsbewertungen wie Arena-Hard und WritingBench. Mit einer maximalen Ausgabe von 4K Token und einer wettbewerbsfähigen Preisgestaltung von 0,07 $/0,46 $ pro 1 Mio. Eingabe-/Ausgabetoken ist es eine vielseitige Wahl. Dieses Modell unterstützt Funktionen, Code und Streaming-Funktionen und ist auf Multi AI kostenlos zugänglich.
✅ Am besten für
🚀 Fähigkeiten
❌ Einschränkungen
Spezifikationen
| Anbieter | qwen |
| Kontextfenster | 262,144 Token |
| Max. Ausgabe | 4,096 Token |
| Mindestplan | Economy |
Preise
| Eingabepreis | $0.0710 / 1M Token |
| Ausgabepreis | $0.4630 / 1M Token |
💡 Mit PRO-Abo werden die Kosten um 20% reduziert
Bereit, Qwen: Qwen3 235B A22B Instruct 2507 auszuprobieren?
Erhalten Sie 1.000 Token kostenlos bei der Anmeldung
Kostenlos starten