I2
Balance

Inception: Mercury 2

von inception

Mercury 2 is an extremely fast reasoning LLM, and the first reasoning diffusion LLM (dLLM). Instead of generating tokens sequentially, Mercury 2 produces and refines multiple tokens in parallel, achieving >1,000 tokens/sec on standard GPUs. Mercury 2 is 5x+ faster than leading speed-optimized LLMs like Claude 4.5 Haiku and GPT 5 Mini, at a fraction of the cost. Mercury 2 supports tunable reasoning levels, 128K context, native tool use, and schema-aligned JSON output. Built for coding workflows

128KKontextfenster
Kategorie
Economy
API-Zugang
Einheitlicher Kontext
RAG + Knowledge Base
24/7 Support
Dieses Modell testenModelle vergleichen

🚀 Fähigkeiten

Langer Kontext
JSON-Modus
Funktionsaufrufe
Streaming-Ausgabe
Strukturierte Ausgabe

Spezifikationen

Anbieterinception
Kontextfenster128,000 Token
Max. Ausgabe50,000 Token
MindestplanBalance

Preise

Eingabepreis$0.2500 / 1M Token
Ausgabepreis$0.7500 / 1M Token

💡 Mit PRO-Abo werden die Kosten um 20% reduziert

Bereit, Inception: Mercury 2 auszuprobieren?

Erhalten Sie 1.000 Token kostenlos bei der Anmeldung

Kostenlos starten