Z.AI: GLM 4.6 représente un bond en avant significatif par rapport à GLM-4.5, apportant une série d'améliorations conçues pour des applications IA plus complexes et nuancées. Sa fenêtre contextuelle a été étendue à un impressionnant 200K tokens, lui permettant de traiter et de comprendre des quantités d'informations beaucoup plus importantes, ce qui le rend idéal pour les tâches agentiques complexes. Ce modèle affiche des performances de codage supérieures, obtenant des scores plus élevés sur les benchmarks et démontrant des améliorations réelles dans des applications telles que Claude Code, Cline, Roo Code et Kilo Code. Il peut même générer des pages front-end visuellement soignées. Au-delà du codage, GLM-4.6 montre des avancées claires en matière de raisonnement et prend en charge l'utilisation d'outils pendant l'inférence, ce qui conduit à une capacité globale plus forte. Il excelle également dans les frameworks d'agents, offrant des agents plus performants utilisant des outils et basés sur la recherche. De plus, son style d'écriture raffiné s'aligne mieux sur les préférences humaines et se comporte plus naturellement dans les scénarios de jeu de rôle. Avec une fenêtre contextuelle de 202K tokens et une sortie maximale de 4K tokens, il est tarifé à 0,35 $/1,50 $ par 1M tokens d'entrée/sortie et est disponible pour l'accès PRO. Les capacités clés incluent les fonctions, la génération de code et le streaming, ce qui en fait un choix polyvalent pour diverses applications textuelles. Bien qu'il excelle dans le chat et les tâches complexes, il ne prend pas en charge la génération d'images.
✅ Idéal pour
🚀 Capacités
❌ Limitations
Spécifications
| Fournisseur | z-ai |
| Fenêtre de contexte | 202,752 tokens |
| Sortie max | 131,072 tokens |
| Forfait minimum | Premium |
Tarifs
| Prix d'entrée | $0.3500 / 1M tokens |
| Prix de sortie | $1.7100 / 1M tokens |
💡 Avec l'abonnement PRO, le coût est réduit de 20%