Virtuoso-Large est le LLM polyvalent phare d'Arcee, doté de 72 milliards de paramètres. Il est méticuleusement réglé pour des performances supérieures en matière de raisonnement inter-domaine, d'écriture créative et de réponse aux questions de niveau entreprise. Un différenciateur clé est son impressionnante fenêtre de contexte de 128k, héritée de Qwen 2.5, lui permettant de traiter des documents étendus tels que des livres, des bases de code ou des documents financiers dans leur intégralité. Ce modèle est une puissance pour les applications nécessitant une compréhension contextuelle approfondie. Son régime d'entraînement avancé comprend la distillation DeepSeek R1, un réglage fin supervisé multi-époque et une étape finale d'alignement DPO/RLHF, ce qui se traduit par de solides performances sur les tests BIG-Bench-Hard, GSM-8K et Needle-In-Haystack à long contexte. Les entreprises utilisent Virtuoso-Large comme cerveau de « repli » fiable dans les pipelines Conductor. Malgré sa taille, des optimisations agressives du cache KV garantissent une latence du premier jeton de l'ordre de la seconde sur des nœuds 8× H100. Il prend en charge les fonctions et le streaming, avec une fenêtre de contexte de 131K jetons et une sortie maximale de 4K jetons. Le prix est compétitif à 0,75 $/1,20 $ par million de jetons (entrée/sortie).
✅ Idéal pour
🚀 Capacités
❌ Limitations
Spécifications
| Fournisseur | arcee-ai |
| Fenêtre de contexte | 131,072 tokens |
| Sortie max | 4,096 tokens |
| Forfait minimum | Premium |
Tarifs
| Prix d'entrée | $0.7500 / 1M tokens |
| Prix de sortie | $1.2000 / 1M tokens |
💡 Avec l'abonnement PRO, le coût est réduit de 20%
Prêt à essayer Arcee AI: Virtuoso Large ?
Obtenez 1 000 tokens gratuits à l'inscription
Commencer gratuitement