Анонимные модели часто собирают хайп в слепых тестированиях, чтобы потом оказаться переупакованным старьем или легким форком. Загадочный генератор Peanut, который обходил конкурентов на арене, оказался моделью HiDream-O1-Image на 8B параметров от стартапа Vivago. Теперь энтузиасты собрали для нее интеграцию в ComfyUI, что позволяет заглянуть под капот без использования закрытых веб-платформ.
Главная техническая заявка проекта — полный отказ от привычного VAE и использование встроенного рассуждающего агента. Модель пытается анализировать промпт по шагам, выстраивая внутреннюю логику перед генерацией, аналогично цепочкам мыслей в текстовых нейросетях. Авторы предлагают базовую версию на 50 шагов инференса и dev-вариант на 28 шагов с поддержкой разрешений до 2048. Но действительно ли перенос вычислительной нагрузки на предварительный анализ решает фундаментальные проблемы визуальной композиции?
Практика показывает, что усложнение логики на этапе обработки текста часто ведет к потере прямого контроля над пикселями. Наличие недистиллированной и дистиллированной версий дает гибкость в потреблении ресурсов, однако сам архитектурный сдвиг вызывает вопросы. Пока это выглядит как любопытный эксперимент по скрещиванию сложных текстовых рассуждений с генерацией изображений, требующий серьезной обкатки в рабочих пайплайнах.
Поделиться:
Прогрев кеша в Claude API для снижения задержки первого токена (TTFT) →
Эссе Маттиаса Отта о разделении дизайна и разработки как устаревшем индустриальном наследии →