Meta: LlamaGuard 2 8B es un modelo de salvaguardia avanzado de 8 mil millones de parámetros, basado en la arquitectura de la familia Llama 3. Similar a su predecesor, LlamaGuard 1, este modelo destaca tanto en la clasificación de prompts como en la de respuestas, garantizando la seguridad del contenido en diversas aplicaciones. Operando de manera similar a un modelo de lenguaje grande (LLM) estándar, LlamaGuard 2 genera una salida de texto que indica si una entrada o salida dada se considera segura o insegura. Crucialmente, si el contenido se clasifica como inseguro, el modelo especifica además las categorías de contenido que han sido violadas. Para obtener los mejores resultados, se recomienda utilizar la entrada de prompt sin procesar o el endpoint `/completions`, en lugar de la API de chat. Este modelo ha demostrado un sólido rendimiento en evaluaciones humanas, rivalizando con las principales alternativas de código cerrado. Con una ventana de contexto de 8K tokens y una salida máxima de 4K tokens, LlamaGuard 2 ofrece un procesamiento eficiente. Admite capacidades de streaming y está disponible para acceso gratuito en Multi AI, con un precio de $0.20 por 1 millón de tokens de entrada y $0.20 por 1 millón de tokens de salida. El uso está sujeto a la Política de Uso Aceptable de Meta.
✅ Ideal para
🚀 Capacidades
❌ Limitaciones
Especificaciones
| Proveedor | meta-llama |
| Ventana de contexto | 8,192 tokens |
| Salida máx | 4,096 tokens |
| Plan mínimo | Económico |
Precios
| Precio de entrada | $0.2000 / 1M tokens |
| Precio de salida | $0.2000 / 1M tokens |
💡 Con la suscripción PRO, el costo se reduce un 20%