Virtuoso-Large ist Arcee's führendes universelles LLM mit 72 Milliarden Parametern. Es ist sorgfältig auf überragende Leistung in domänenübergreifendem Reasoning, kreativem Schreiben und unternehmensgerechter Fragenbeantwortung abgestimmt. Ein Hauptunterscheidungsmerkmal ist sein beeindruckendes 128k Kontextfenster, das von Qwen 2.5 geerbt wurde und es ermöglicht, umfangreiche Dokumente wie Bücher, Codebasen oder Finanzberichte vollständig zu verarbeiten. Dieses Modell ist ein Kraftpaket für Anwendungen, die ein tiefes kontextuelles Verständnis erfordern. Sein fortschrittliches Trainingsregime umfasst DeepSeek R1-Destillation, mehrfache überwachte Feinabstimmung und eine abschließende DPO/RLHF-Ausrichtungsphase, was zu starken Benchmarks bei BIG-Bench-Hard, GSM-8K und Langkontext-Needle-In-Haystack-Tests führt. Unternehmen nutzen Virtuoso-Large als zuverlässiges „Fallback“-Gehirn in Conductor-Pipelines. Trotz seiner Größe sorgen aggressive KV-Cache-Optimierungen für eine First-Token-Latenz im niedrigen Sekundenbereich auf 8× H100-Knoten. Es unterstützt Funktionen und Streaming, mit einem 131K Token Kontextfenster und 4K Token maximaler Ausgabe. Die Preise sind wettbewerbsfähig: $0.75/1.20 pro 1M Tokens (Input/Output).
✅ Am besten für
🚀 Fähigkeiten
❌ Einschränkungen
Spezifikationen
| Anbieter | arcee-ai |
| Kontextfenster | 131,072 Token |
| Max. Ausgabe | 64,000 Token |
| Mindestplan | Premium |
Preise
| Eingabepreis | $0.7500 / 1M Token |
| Ausgabepreis | $1.2000 / 1M Token |
💡 Mit PRO-Abo werden die Kosten um 20% reduziert
Bereit, Arcee AI: Virtuoso Large auszuprobieren?
Erhalten Sie 1.000 Token kostenlos bei der Anmeldung
Kostenlos starten