Z.AI: GLM 4.5 est le dernier modèle fondamental phare de Z.AI, spécifiquement conçu pour les applications avancées basées sur des agents. Utilisant une architecture sophistiquée Mixture-of-Experts (MoE), GLM-4.5 offre des capacités considérablement améliorées dans des domaines clés tels que le raisonnement, la génération de code et l'alignement des agents. Il prend en charge une longueur de contexte étendue allant jusqu'à 128 000 tokens, ce qui le rend adapté aux interactions complexes et de longue durée. Ce modèle dispose d'un mode d'inférence hybride unique, offrant aux utilisateurs une flexibilité. Le « mode de réflexion » est optimisé pour les tâches de raisonnement complexes et l'utilisation d'outils, tandis que le « mode sans réflexion » est conçu pour des réponses rapides et instantanées. Les utilisateurs peuvent contrôler précisément le comportement de raisonnement à l'aide du paramètre booléen `reasoning` `enabled`. Avec une structure de prix compétitive de 0,35 $/1,55 $ par 1M de tokens d'entrée/sortie et une sortie maximale généreuse de 4 000 tokens, GLM-4.5 est une solution puissante et rentable pour les développeurs. Il prend en charge les fonctions, la génération de code et les capacités de streaming, ce qui le rend idéal pour les applications de chat et les agents IA complexes. Accédez à ce modèle de niveau PRO sur Multi AI.
✅ Idéal pour
🚀 Capacités
❌ Limitations
Spécifications
| Fournisseur | z-ai |
| Fenêtre de contexte | 131,000 tokens |
| Sortie max | 131,000 tokens |
| Forfait minimum | Premium |
Tarifs
| Prix d'entrée | $0.5500 / 1M tokens |
| Prix de sortie | $2.0000 / 1M tokens |
💡 Avec l'abonnement PRO, le coût est réduit de 20%