Meta: LlamaGuard 2 8B ist ein fortschrittliches Schutzmodell mit 8 Milliarden Parametern, das auf der Llama 3-Familienarchitektur aufbaut. Ähnlich wie sein Vorgänger, LlamaGuard 1, zeichnet sich dieses Modell sowohl bei der Prompt- als auch bei der Response-Klassifizierung aus und gewährleistet die Inhaltssicherheit in verschiedenen Anwendungen. LlamaGuard 2 funktioniert ähnlich wie ein Standard-Large Language Model (LLM) und generiert Textausgaben, die angeben, ob eine gegebene Eingabe oder Ausgabe als sicher oder unsicher eingestuft wird. Entscheidend ist, dass das Modell, wenn Inhalte als unsicher klassifiziert werden, zusätzlich die verletzten Inhaltskategorien angibt. Für optimale Leistung wird empfohlen, rohe Prompt-Eingaben oder den `/completions`-Endpunkt anstelle der Chat-API zu verwenden. Dieses Modell hat in menschlichen Bewertungen eine starke Leistung gezeigt und konkurriert mit führenden Closed-Source-Alternativen. Mit einem Kontextfenster von 8K Tokens und einer maximalen Ausgabe von 4K Tokens bietet LlamaGuard 2 eine effiziente Verarbeitung. Es unterstützt Streaming-Funktionen und ist auf Multi AI kostenlos zugänglich, zum Preis von 0,20 $ pro 1 Million Eingabe-Tokens und 0,20 $ pro 1 Million Ausgabe-Tokens. Die Nutzung unterliegt der Acceptable Use Policy von Meta.
✅ Am besten für
🚀 Fähigkeiten
❌ Einschränkungen
Spezifikationen
| Anbieter | meta-llama |
| Kontextfenster | 8,192 Token |
| Max. Ausgabe | 4,096 Token |
| Mindestplan | Economy |
Preise
| Eingabepreis | $0.2000 / 1M Token |
| Ausgabepreis | $0.2000 / 1M Token |
💡 Mit PRO-Abo werden die Kosten um 20% reduziert
Bereit, Meta: LlamaGuard 2 8B auszuprobieren?
Erhalten Sie 1.000 Token kostenlos bei der Anmeldung
Kostenlos starten