Считается, что реверс-инжиниринг закрытых сайтов требует часов ручной работы с сетевыми запросами. Утилита browser-to-api предлагает автоматизировать этот процесс, превращая сырой браузерный трафик в готовую OpenAPI 3.1 спецификацию. Инструмент анализирует логи, сопоставляет CDP-запросы с ответами, шаблонизирует URL и пытается вывести JSON-схемы из собранных примеров данных.
Правда, никакой магии здесь нет. Инструмент не перехватывает трафик в реальном времени, а работает исключительно как офлайн-парсер поверх готовых логов browser-trace. Сначала выполняется тестовый сценарий, сохраняется дамп, и только потом скрипт генерирует файлы openapi.yaml и клиентский код. Для работы ИИ-агентов, которым нужно быстро написать парсер для стороннего сервиса, этого технического минимума обычно хватает.
Но насколько можно доверять таким сгенерированным схемам? Спецификация будет описывать ровно те данные, которые скрипт успел зафиксировать во время записи. Если редкий параметр или нестандартный ответ сервера не попали в выборку, в итоговом API их просто не окажется. Внутренние эндпоинты веб-приложений меняются без предупреждений разработчиков, поэтому поддерживать работоспособность такого самодельного SDK придется регулярными перезаписями трафика.
Поделиться:
Монтаж видео в ComfyUI: как работают ноды LTX Director и почему код может быть грязным →
Эссе Маттиаса Отта о разделении дизайна и разработки как устаревшем индустриальном наследии →