Все привыкли думать, что будущее за автономными ИИ-агентами, которым достаточно дать промпт, и они самостоятельно закроют любую задачу. Вопрос в том, насколько жизнеспособна эта модель, если умный агент всё ещё работает поверх жесткой классической операционной системы и файловой структуры. В эссе Neural Computer Минчен Чжугэ предлагает иную перспективу: вместо того чтобы учить ИИ пользоваться нашими инструментами, машине пора самой стать новой вычислительной средой.
Разница парадигм здесь фундаментальна. Классические ПК организуются вокруг явного программного обеспечения, агенты — вокруг задач, world models — вокруг симуляции окружения, а нейронный компьютер базируется непосредственно на runtime. Сейчас главная проблема автономных систем заключается в неспособности стабильно накапливать навыки. Инструменты вроде MetaGPT или Claude Code отлично пишут код, но часто теряют контекст на длинных дистанциях и каждый раз решают проблему заново в рамках изолированной сессии. Идея нейрокомпьютера в том, чтобы перенести слой управления и сохранения опыта в саму среду выполнения, сделав навыки устанавливаемыми и переиспользуемыми системными компонентами.
Правда, пока эта концепция выглядит скорее как теоретический вектор, чем готовая архитектура. Да, мы видим сильный прогресс в понимании динамических сред — от симуляторов Waymo до нейросетевого рендеринга DOOM. Но одно дело научить модель предсказывать физику или генерировать скрипт, и совершенно иное — заставить её надежно поддерживать состояние всей системы, где опыт кэшируется так же предсказуемо, как пакеты в npm. Перенос ответственности с привычного тулчейна на нейронные рельсы выглядит логично, но это потребует полного отказа от того, как мы привыкли контролировать вычисления.
Поделиться:
Прогрев кеша в Claude API для снижения задержки первого токена (TTFT) →
Эссе Маттиаса Отта о разделении дизайна и разработки как устаревшем индустриальном наследии →