Принято считать, что наращивание контекстного окна — прямой путь к полностью автономной разработке. Команда Alibaba выпустила Qwen3.6-35B-A3B, открытую мультимодальную модель на 35 миллиардов параметров, из которых при генерации активно всего три миллиарда. Заявлена нативная поддержка 262 тысяч токенов с возможностью расширения до миллиона. Архитектура MoE позволяет запускать подобные веса с приемлемой скоростью, но реальная польза такого огромного контекста на практике часто упирается в деградацию внимания к мелким деталям кода.
Главный акцент в релизе сделан на Agentic Coding и сохранение цепочки рассуждений. Функция Thinking Preservation кэширует контекст логики между запросами, что объективно может снизить задержки при итеративном написании скриптов. Создатели утверждают, что модель стала лучше понимать фронтенд-воркфлоу и структуру крупных репозиториев. Правда, результаты в SWE-bench показывают скорее инкрементальное улучшение по сравнению с прошлым поколением. Qwen 3.6 обходит конкурентов в базовых задачах, но в сложных сценариях многошагового планирования прогресс остается скромным.
Встроенный визуальный энкодер добавляет сценарии, где код генерируется напрямую из макетов или векторной графики. Синтетические тесты рисуют высокие баллы в распознавании документов и пространственном интеллекте. Вопрос в том, насколько стабильно эта связка зрения и текста отработает за пределами стерильных бенчмарков. Официальная рекомендация использовать выделенные движки вроде vLLM или SGLang прямо намекает, что для заявленной агентной производительности потребуются серьезные серверные мощности, а не просто базовое локальное железо.
Поделиться:
Почему базовые нейросети проваливают задачи продуктового 3D, и как кастомная LoRA спасает консистентность графики →
Автор термина «метавселенная» Нил Стивенсон объяснил, почему проект Meta за $80 млрд был обречен →