Состоялся релиз открытой языковой модели DeepSeek-V4. Она доступна в двух вариантах: старшая Pro на 1,6 трлн параметров и легкая Flash на 284 млрд. Обе нейросети удерживают в памяти контекст до 1 миллиона токенов. Для работы с такими объемами архитектуру перевели на гибридный механизм внимания. Теперь на миллионном окне версия Pro забирает лишь 10% памяти под KV-кэш и 27% вычислительных ресурсов в сравнении с прошлым поколением. Базовое обучение прошло на массиве из 32 трлн токенов с применением оптимизатора Muon.
Разработчики предусмотрели три профиля генерации. В режиме Think Max модель тратит максимум вычислительного бюджета на цепочку рассуждений перед ответом. На таких настройках версия Pro обходит проприетарные аналоги в задачах программирования. В бенчмарках LiveCodeBench и Codeforces открытая модель превосходит GPT-5.4. В тестах автономного исправления кода SWE Verified результаты идут наравне с Claude Opus 4.6 и Gemini 3.1 Pro.
Цены на API делают архитектуру применимой для массовой обработки логов или длинных документов. Миллион токенов на вход для версии Flash стоит 0,14 $, на выход — 0,28 $. Тарификация Pro составляет 0,435 $ и 0,87 $ соответственно. Веса обеих версий выложены на Hugging Face для локального развертывания в форматах FP8 и FP4.
Поделиться:
Прогрев кеша в Claude API для снижения задержки первого токена (TTFT) →
Эссе Маттиаса Отта о разделении дизайна и разработки как устаревшем индустриальном наследии →