Mercury 2 is an extremely fast reasoning LLM, and the first reasoning diffusion LLM (dLLM). Instead of generating tokens sequentially, Mercury 2 produces and refines multiple tokens in parallel, achieving >1,000 tokens/sec on standard GPUs. Mercury 2 is 5x+ faster than leading speed-optimized LLMs like Claude 4.5 Haiku and GPT 5 Mini, at a fraction of the cost. Mercury 2 supports tunable reasoning levels, 128K context, native tool use, and schema-aligned JSON output. Built for coding workflows
128KОкно контекста
Категория
Эконом
Доступ к API
Единый контекст
RAG + Knowledge Base
Поддержка 24/7
🚀 Возможности
Длинный контекст
JSON режим
Вызов функций
Потоковый вывод
Структурированный вывод
Характеристики
| Провайдер | inception |
| Окно контекста | 128,000 токенов |
| Максимальный вывод | 50,000 токенов |
| Минимальный тариф | Баланс |
Цены
| Цена ввода | $0.2500 / 1M токенов |
| Цена вывода | $0.7500 / 1M токенов |
💡 С подпиской PRO стоимость снижается на 20%
Готовы попробовать Inception: Mercury 2?
Получите 1,000 токенов бесплатно при регистрации
Начать бесплатно