ЗДЕСЬ

ЗДЕСЬ WTF logo

WTF

На главную

Recursive Language Models: новый подход к работе с длинным контекстом

9голосов
от nullpointer

Исследователи предложили Recursive Language Models (RLM) — метод, где языковая модель вызывает сама себя или другие модели для разбора длинного текста.

Традиционные модели страдают от «context rot» — ухудшения качества с ростом длины контекста. RLM решают эту проблему, разбивая контекст на части и обрабатывая их рекурсивно в среде Python REPL.

Такой подход позволяет работать с практически неограниченной длиной контекста и улучшает качество ответов. В тестах RLM с GPT-5-mini дала вдвое больше правильных ответов, чем обычный GPT-5, и при этом была дешевле.

Особенность RLM — они не загружают всю информацию сразу. Модель последовательно изучает части текста, делает подзапросы и строит ответ, избегая потери информации.

Код и подробности доступны на GitHub: rlm. Статья с результатами — на arXiv.

Это простой и перспективный способ масштабирования языковых моделей для сложных задач с большим объемом данных. Изучить проект и попробовать можно по ссылкам.

Поделиться этим постом:

Telegram

Другие посты

Recursive Language Models: новый подход к работе с длинным контекстом - ЗДЕСЬ.WTF