Virtuoso-Large es el LLM de propósito general insignia de Arcee, con 72 mil millones de parámetros. Está meticulosamente ajustado para un rendimiento superior en razonamiento interdominio, escritura creativa y respuesta a preguntas de nivel empresarial. Un diferenciador clave es su impresionante ventana de contexto de 128k, heredada de Qwen 2.5, lo que le permite procesar documentos extensos como libros, bases de código o documentos financieros en su totalidad. Este modelo es una potencia para aplicaciones que requieren una comprensión contextual profunda. Su régimen de entrenamiento avanzado incluye destilación DeepSeek R1, ajuste fino supervisado de múltiples épocas y una etapa final de alineación DPO/RLHF, lo que resulta en un sólido rendimiento en las pruebas BIG-Bench-Hard, GSM-8K y Needle-In-Haystack de contexto largo. Las empresas utilizan Virtuoso-Large como un cerebro de "respaldo" confiable en las tuberías de Conductor. A pesar de su tamaño, las optimizaciones agresivas del caché KV garantizan una latencia del primer token en el rango de los segundos bajos en nodos 8× H100. Admite funciones y streaming, con una ventana de contexto de 131K tokens y una salida máxima de 4K tokens. El precio es competitivo: $0.75/1.20 por 1M de tokens (entrada/salida).
✅ Ideal para
🚀 Capacidades
❌ Limitaciones
Especificaciones
| Proveedor | arcee-ai |
| Ventana de contexto | 131,072 tokens |
| Salida máx | 4,096 tokens |
| Plan mínimo | Premium |
Precios
| Precio de entrada | $0.7500 / 1M tokens |
| Precio de salida | $1.2000 / 1M tokens |
💡 Con la suscripción PRO, el costo se reduce un 20%