Компания Anthropic случайно выложила исходный код своего инструмента Claude Code вместе с npm-пакетом. Это дало возможность изучить внутренние механизмы работы.
В коде обнаружили несколько интересных функций. Например, есть механизм «анти-дистилляции»: Claude Code вставляет в запросы фейковые инструменты. Это мешает конкурентам использовать данные для обучения собственных моделей.
Также в коде есть «скрытый режим», который заставляет ИИ не упоминать внутренние названия и избегать признаков искусственного интеллекта в сообщениях. Этот режим нельзя отключить в публичных версиях.
Наконец, в коде применяется регулярное выражение для распознавания признаков раздражения или грубости со стороны пользователей. Это помогает системе лучше реагировать на негатив.
Все подробности и технические детали можно найти в блоге Алекса Кима. Если интересно, изучить материалы можно на alex000kim.com.
Этот случай показывает, как серьезно компании защищают свои технологии. В то же время утечка даёт редкий шанс взглянуть на скрытые приёмы в ИИ-инструментах.
Поделиться:
TencentDB Agent Memory: 4-уровневая локальная память для ИИ-агентов без внешних API →
Anthropic прячет новую модель Claude Mythos. Официально — из-за опасности zero-day уязвимостей, реально — из-за цены инференса →