Действительно ли ИИ способен автономно писать код весь рабочий день без галлюцинаций? Обычно генеративные модели быстро выдыхаются: применяют заученные паттерны, а если они не срабатывают — уходят в бесконечный цикл одних и тех же ошибок. Z.ai представили GLM-5.1 — опенсорсную нейросеть, которая пытается решить проблему короткого горизонта планирования. Разработчики заявляют, что она превосходит GPT-5.4 и Claude Opus 4.6 в профильных бенчмарках. Но интереснее не голые цифры, а механика длительных сессий.
Архитектура явно заточена под тысячи вызовов инструментов и сотни итераций. На примере оптимизации векторной базы данных на Rust, модель сделала более 600 сабмитов. Она не просто перебирала параметры вслепую, а меняла саму структуру конвейера, добившись 21.5k QPS — это в шесть раз выше предыдущего рекорда. Для неструктурированных задач, вроде сборки веб-интерфейса десктопного Linux без стартового кода, система использует механизм постоянной самооценки. Восемь часов подряд она пишет код, ищет недостатки в верстке, исправляет их и продолжает работу.
Правда, остается неясным, насколько это применимо вне синтетической песочницы. В условиях тестов с четкими числовыми метриками скорости модель понимает, куда двигаться. Однако сами создатели признают: на специфических задачах вроде оптимизации ML-ядер тот же Claude Opus 4.6 все еще выдает лучший результат. Заставить агента не застревать в локальных оптимумах и сохранять логику после тысяч действий — до сих пор нерешенная задача. Заявленная автономность пока выглядит скорее как дорогой вычислительный эксперимент, чем надежный инструмент для ежедневного продакшена.
Поделиться:
Прогрев кеша в Claude API для снижения задержки первого токена (TTFT) →
Эссе Маттиаса Отта о разделении дизайна и разработки как устаревшем индустриальном наследии →