Алгоритмы автоматического найма получили неочевидную уязвимость из-за архитектурных особенностей LLM. Новое исследование доказало, что языковые модели обладают выраженной предвзятостью к собственным текстам. Если кандидат сгенерировал CV с помощью той же нейросети, которая проводит первичный корпоративный скрининг, его шансы пройти отбор искусственно завышаются.
Исследователи прогнали через системы оценки 2245 реальных резюме и их ИИ-копии. Оказалось, что модели стабильно пессимизируют тексты, написанные живыми людьми. Уровень предпочтения собственных генераций достигает 82% среди популярных коммерческих и open-source решений. В симуляции пайплайна найма по 24 профессиям соискатели, совпавшие по стеку с проверяющим алгоритмом, получали шорт-лист на 23–60% чаще при абсолютно равных вводных данных. Сильнее всего разрыв заметен в бизнес-специальностях, таких как продажи и бухгалтерия.
Технически рынок труда превращается в слепое угадывание корпоративного ИИ-стека. Авторы работы уточняют, что аппаратную погрешность можно снизить минимум на 50% через точечные интервенции в механизмы самораспознавания LLM. Пока такие фильтры не стали стандартом для HR-систем, использование нейросетей при составлении резюме переходит из категории удобных инструментов в жесткое требование для преодоления первого этапа воронки.
Поделиться:
Память агентов в Claude Managed Agents: файловая система вместо векторных баз →
Автопортреты Стефана Загмайстера: 30 лет телесного дизайна и критики модернизма →