Каждый релиз новой 3D-нейросети сопровождается обещаниями идеальной сетки и физически корректных материалов. Так ли это в случае с Seed3D 2.0 от ByteDance? Обычно генеративные модели выдают оплавленные меши с намертво запеченным светом, которые годятся разве что для дальнего плана.
В основе архитектуры теперь лежит двухэтапный подход coarse-to-fine. Модель разделяет общую форму и мелкие детали, пытаясь справляться с тонкими стенками и острыми гранями. В теории это решает проблему сложной топологии. Но на практике многоступенчатая генерация часто означает лишь то, что ошибки первого этапа каскадно переносятся на финальный результат.
С текстурами разработчики пошли по пути усложнения. Они внедрили архитектуру MoE для создания полноценных PBR-карт и подключили VLM-модели, чтобы угадывать условия освещения на исходном изображении. Это прямая попытка отделить диффузный цвет от теней и бликов. Если алгоритм действительно научился чистому делайтингу, это сэкономит часы технической работы.
Правда, пока доказательная база строится на закрытом тестировании, где 60 человек сравнивали результаты с шестью бейзлайнами. Seed3D 2.0 предсказуемо победила. Вопрос в том, насколько эти сгенерированные объекты пригодны для риггинга без ручной ретопологии. Модель явно стала точнее, но до состояния «скачал и кинул в продакшен» индустрии предстоит пройти еще не одну итерацию.
Поделиться:
Айдентика дизайн-фестиваля Tigers of Design от агентства Suprematika →
Иллюзия разума: почему биолог Ричард Докинз поверил в сознание нейросети Claude →