DeepSeek-V3.1 es un gran modelo de razonamiento híbrido que presenta 671 mil millones de parámetros (con 37 mil millones activos) que admite de manera única los modos de 'pensamiento' y 'no pensamiento' a través de plantillas de prompt. Se basa en la base DeepSeek-V3, mejorando sus capacidades con un proceso de entrenamiento de contexto largo de dos fases para alcanzar una impresionante ventana de contexto de hasta 128K tokens. Para una inferencia eficiente, utiliza microescalado FP8. Los usuarios pueden controlar con precisión el comportamiento de razonamiento del modelo utilizando el booleano `reasoning` `enabled`. Este modelo mejora significativamente el uso de herramientas, la generación de código y la eficiencia del razonamiento, ofreciendo un rendimiento comparable a DeepSeek-R1 en puntos de referencia difíciles mientras responde más rápidamente. Admite la llamada de herramientas estructuradas, agentes de código avanzados y agentes de búsqueda sofisticados, lo que lo convierte en una excelente opción para la investigación, tareas de codificación complejas y flujos de trabajo agénticos. DeepSeek-V3.1 sucede al modelo DeepSeek V3-0324 y demuestra un sólido rendimiento en una amplia gama de tareas. Las especificaciones clave incluyen una ventana de contexto de 8K tokens (con 128K disponibles a través del entrenamiento de contexto largo), una salida máxima de 4K tokens y precios competitivos de $0.15/$0.75 por 1 millón de tokens de entrada/salida. Ofrece capacidades como funciones, generación de código y transmisión, lo que lo convierte en una herramienta versátil para diversas aplicaciones de IA.
✅ Ideal para
🚀 Capacidades
❌ Limitaciones
Especificaciones
| Proveedor | deepseek |
| Ventana de contexto | 32,768 tokens |
| Salida máx | 7,168 tokens |
| Plan mínimo | Equilibrio |
Precios
| Precio de entrada | $0.1500 / 1M tokens |
| Precio de salida | $0.7500 / 1M tokens |
💡 Con la suscripción PRO, el costo se reduce un 20%