I2
Équilibre

Inception: Mercury 2

par inception

Mercury 2 is an extremely fast reasoning LLM, and the first reasoning diffusion LLM (dLLM). Instead of generating tokens sequentially, Mercury 2 produces and refines multiple tokens in parallel, achieving >1,000 tokens/sec on standard GPUs. Mercury 2 is 5x+ faster than leading speed-optimized LLMs like Claude 4.5 Haiku and GPT 5 Mini, at a fraction of the cost. Mercury 2 supports tunable reasoning levels, 128K context, native tool use, and schema-aligned JSON output. Built for coding workflows

128KFenêtre de contexte
Catégorie
Économique
Accès API
Contexte unifié
RAG + Knowledge Base
Support 24/7
Essayer ce modèleComparer les modèles

🚀 Capacités

Long contexte
Mode JSON
Appels de fonction
Sortie en streaming
Sortie structurée

Spécifications

Fournisseurinception
Fenêtre de contexte128,000 tokens
Sortie max50,000 tokens
Forfait minimumÉquilibre

Tarifs

Prix d'entrée$0.2500 / 1M tokens
Prix de sortie$0.7500 / 1M tokens

💡 Avec l'abonnement PRO, le coût est réduit de 20%

Prêt à essayer Inception: Mercury 2 ?

Obtenez 1 000 tokens gratuits à l'inscription

Commencer gratuitement