Mistral Small 3 est un puissant modèle linguistique de 24 milliards de paramètres de mistralai, spécialement conçu pour des performances à faible latence sur un large éventail de tâches d'IA courantes. Publié sous la licence permissive Apache 2.0, ce modèle offre des versions pré-entraînées et affinées par instruction, ce qui le rend très polyvalent pour un déploiement local efficace et une intégration dans diverses applications. Atteignant une précision impressionnante de 81% sur le benchmark MMLU, Mistral Small 3 démontre des performances compétitives par rapport à des modèles significativement plus grands tels que Llama 3.3 70B et Qwen 32B. De manière cruciale, il fonctionne trois fois plus vite sur un matériel équivalent, offrant un avantage significatif pour les applications nécessitant des réponses rapides. Avec une fenêtre de contexte généreuse de 32K tokens et une sortie maximale de 4K tokens, il prend en charge les interactions complexes. Ce modèle est disponible en accès gratuit et est tarifé à 0,03 $ par million de tokens d'entrée et 0,11 $ par million de tokens de sortie. Utilisez Mistral Small 3 pour des tâches telles que le chat, la génération de code et la traduction. Il prend en charge des capacités avancées, notamment l'appel de fonctions, l'interprétation de code et la sortie en streaming. Notez qu'il ne prend pas en charge la génération d'images ou l'accès à Internet.
✅ Idéal pour
🚀 Capacités
❌ Limitations
Spécifications
| Fournisseur | mistralai |
| Fenêtre de contexte | 32,768 tokens |
| Sortie max | 4,096 tokens |
| Forfait minimum | Économique |
Tarifs
| Prix d'entrée | $0.0300 / 1M tokens |
| Prix de sortie | $0.1100 / 1M tokens |
💡 Avec l'abonnement PRO, le coût est réduit de 20%
Prêt à essayer Mistral: Mistral Small 3 ?
Obtenez 1 000 tokens gratuits à l'inscription
Commencer gratuitement