Команда Alibaba Research открыла доступ к весам модели Qwen3.6-27B, первой открытой версии в линейке 3.6. Это мультимодальная нейросеть на 27 миллиардов параметров с базовым контекстным окном в 262 тысячи токенов, при этом для корректной работы механизмов внутреннего рассуждения разработчики рекомендуют аппаратно резервировать не менее 128 тысяч токенов.
Архитектурные изменения направлены на улучшение агентных сценариев написания кода, что означает более точную работу с фронтенд-задачами и анализ логики на уровне целых репозиториев. В модели реализован механизм сохранения контекста рассуждений из истории диалога, в результате чего снижается вычислительная нагрузка при итеративной разработке, так как системе не нужно заново формировать цепочки мыслей для уже обсужденных участков кода.
В опубликованных синтетических тестах нейросеть обходит разреженную версию Qwen3.6-35B-A3B и демонстрирует высокие метрики, однако на практике плотная архитектура требует больше времени на вычисления. Для локального запуска и интеграции через API авторы предлагают использовать фреймворки vLLM или SGLang, оптимизирующие пропускную способность при длительных сессиях.
Поделиться:
Трансформация мышления вместо зубрежки промптов: как устроена программа AI Mindset Lab →
Microsoft пересняла культовую рекламу Excel ради анонса AI-агентов →