Как AI HR-системы в Европе принимают непрозрачные решения о найме и увольнениях
title: “Как AI HR-системы в Европе принимают непрозрачные решения о найме и увольнениях” slug: “kak-ai-hr-sistemy-v-evrope-prinimayut-neprozrachnye-resheniya-o-nayme-i-uvolneniyah” date: 2026-05-03 category: investigations tags: [ai, labor, surveillance, law] summary: “Я сижу, смотрю на очередную вакансию в европейской компании, и меня цепляет одна мелочь: «Мы используем data-driven hiring для объективности и скорости».” sources: [] status: draft featured: false image: “/static/2026-05-03_kak-ai-hr-sistemy-v-evrope-prinimayut-neprozrachnye-resheniya-o-nayme-i-uvolneniyah-news-cover.webp”
Как AI HR-системы в Европе принимают непрозрачные решения о найме и увольнениях

Я сижу, смотрю на очередную вакансию в европейской компании, и меня цепляет одна мелочь:
«Мы используем data-driven hiring для объективности и скорости».
Красиво.
Настолько красиво, что я полезла проверять, как это «объективно» работает, когда человеку приходит отказ через несколько минут — или когда сотруднику объясняют увольнение фразой из серии «модель показала риск».
И вот тут, конечно, начинается самое интересное.


Что на самом деле происходит в HR: не “ИИ вообще”, а решения с последствиями
В публичных разговорах всё смешали в одну кучу: чат-боты, генерация текста, автоматические письма, аналитика, видеособеседования.
Но если убрать маркетинговый туман, проблема очень конкретная.
Речь о алгоритмических HR-решениях, которые влияют на жизнь человека:
кого позвали на интервью, кого отсеяли, кому дали смены, кого пометили как «низкоэффективного», кого сократили.
То есть не «ой, ИИ помог написать описание вакансии», а «алгоритм ранжировал людей так, что один получил оффер, а другой — нет».
Именно такие сценарии в ЕС уже попадают под жёсткую правовую рамку.

Правовая рамка в ЕС: она не будущая, она уже здесь
Когда я полезла в документы, картина получилась очень приземлённая.
Есть GDPR, статья 22: у человека есть право не подпадать под решение, основанное исключительно на автоматизированной обработке, если такое решение даёт правовые или существенно значимые последствия.
Трудовые последствия — это как раз тот случай.
Простыми словами: нельзя просто нажать кнопку «модель решила» и умыть руки, если речь о найме, карьере, доходе, увольнении.
В связке с этим работают и другие права в GDPR (на практике через ст. 13–15, 21–22):
человек может запросить информацию, доступ к данным, оспорить решение и попросить вмешательство живого человека.
И отдельно — EU AI Act.
Он относит системы ИИ для найма, отбора, решений по условиям занятости и увольнению к категории high-risk.
High-risk — это не «немножко риск», а «ребята, у вас повышенные обязанности».
Там уже про управление рисками, документацию, качество данных, человеческий надзор (human oversight), прозрачность и проверяемость.
То есть регулятор прямо говорит: HR-ИИ — зона повышенной опасности для прав человека.

Главная поломка: непрозрачность как рабочая модель
Ой, вот тут особенно показательно.
На рынке много обещаний «объективности».
А на практике одна из самых устойчивых проблем — дефицит explainability (объяснимости) и аудируемости.
Explainability — термин модный, я погуглила простыми словами:
это когда можно внятно объяснить, почему система выдала именно такой результат по конкретному человеку.
Не общими словами «модель решила», а по сути: какие факторы сработали, где ошибка, как оспорить.
Профильные обзоры и регуляторная повестка это подтверждают: в HR именно с этим регулярно провал.
И это не эстетическая проблема для конференций.
Это проблема прав и денег.
Если кандидат получает отказ, а сотрудник — санкцию или увольнение, но никто не может объяснить логику решения, человек остаётся в тупике: как защищаться от решения, которое нельзя проверить?

Дискриминация: старый перекос в новом интерфейсе
Я сначала думала, что здесь будет какая-то экзотика.
Ага, сейчас.
Механика старая, как мир: модель учится на исторических данных и впитывает историческую несправедливость.
Если раньше в компании чаще продвигали определённый профиль людей, если карьерные перерывы трактовались как «минус», если возраст или стиль карьеры неформально считались «не теми» — алгоритм может начать воспроизводить это как норму.
Важно говорить аккуратно: без непроверенных процентов и крикливых цифр.
Но сам класс риска подтверждён и академически, и регуляторно.
И это нужно проговаривать по-человечески, без тумана:
алгоритм может не видеть «женщину» или «50+» как прямую метку, но использовать прокси-признаки, которые дают тот же эффект.
Старому перекосу просто выдали новый бейджик «AI-powered».

“Право на объяснение” — не магическая кнопка, но и не пустой звук
Здесь много путаницы, и компании этим охотно пользуются.
Нельзя честно написать: «GDPR требует раскрыть весь исходный код».
Это неверно.
Но и позиция «мы ничего не обязаны объяснять, потому что коммерческая тайна» — тоже удобная сказка.
Корректнее так: GDPR даёт человеку право на meaningful information (значимую информацию) о логике обработки в контексте его прав, плюс право оспаривания и человеческого вмешательства.
Meaningful information — это не «держите 200 страниц кода», а понятное объяснение механики, влияющей на судьбу конкретного человека.
То есть спрятаться за фразой «сложная модель, сами понимаете» всё сложнее.
И будет ещё сложнее.

Масштаб внедрения: да, он большой — но без натяжек
Я отдельно проверила самый любимый жанр этой темы — «проценты для шока».
Безопасная формулировка такая:
крупные международные опросы, включая Deloitte, показывают широкое использование и пилотирование AI в HR на глобальном уровне; сопоставимые тренды наблюдаются и у европейских работодателей.
Важно: именно глобальные данные часто пытаются выдать за «точно по Европе».
Так делать нельзя.
Но даже без спорных локальных процентов картина очевидна: внедрение массовое, и скорость выше, чем зрелость контроля.

Где уязвимость компаний — и почему это уже не только “этика”
Раньше эту тему обсуждали как корпоративную «ответственность».
Теперь это всё больше зона правовых рисков.
Если у вас HR-система принимает или поддерживает решение с серьёзным эффектом для человека, а вы не можете:
- показать логику процесса,
- подтвердить качество данных,
- продемонстрировать человеческий контроль,
- обеспечить процедуру оспаривания,
то это не просто «неудобно в PR».
Это потенциальные претензии регулятора, трудовые споры и репутационный удар.
И отдельно: ссылки на «эффективность» больше не спасают автоматически.
Регуляторная логика в ЕС простая: эффективность не отменяет прав.

Две волны, которые нельзя путать
Это важный кусок, потому что в разговорах всё опять склеивают.
Первая волна — algorithmic management (до и после 2023):
скоринг, ранжирование кандидатов, распределение смен, KPI-мониторинг, риск-профили, автоматизированные HR-решения.
Именно здесь выросла основная проблема найма/увольнений «чёрным ящиком».
Вторая волна — generative AI (с 2023+):
генерация вакансий, автосуммаризация интервью, LLM-ассистенты рекрутеров.
Generative AI не отменил старые риски, а добавил новый слой:
к старому непрозрачному контуру теперь прикрутили автоматизированное производство HR-контента и интерпретаций.
То есть если коротко: проблема началась не с чат-бота.
И не закончится, если запретить пару модных инструментов.

Что это значит для обычного человека
Я призадумалась: как выглядит минимальная самозащита, если ты кандидат или сотрудник в этой системе.
На практике — задавать неудобные вопросы и фиксировать ответы:
- Было ли решение полностью автоматизированным?
- Какие данные использовались?
- Кто и как проводил human review (человеческую проверку)?
- Как подать возражение и в какие сроки?
- Какие критерии были решающими по моему кейсу?
Да, это звучит бюрократично.
Но иначе вас оставляют в ситуации «вам отказано, потому что так посчитала система».
Очень удобно для системы. Очень плохо для человека.

И что дальше
Европа сейчас делает то, что давно пора было делать: признаёт, что HR-алгоритмы — это инфраструктура власти над людьми, а не нейтральная техноштука.
Если система влияет на доступ к работе и доходу, к ней должны быть требования как к инструменту с высоким риском.
С проверками, ответственностью и человеческим участием, а не с рекламным слоганом про «объективность».
Потому что в финале всё упирается в простой вопрос:
кто принимает решение о вашей жизни — и можно ли это решение проверить и оспорить.
Если нельзя, это не «инновация».
Это непрозрачный приговор с красивым интерфейсом.
Отдельно скажу про материалы. В этом тексте я сознательно опиралась на подтверждённый пакет: правовую рамку GDPR (включая ст. 22 и связанные права), квалификацию HR-ИИ как high-risk в EU AI Act, консенсус по проблеме explainability/аудируемости и аккуратную формулировку про масштаб внедрения (без подмены глобальных цифр «точно европейскими»). Неподтверждённые персональные истории, спорные проценты и недоказанные утверждения о конкретных вендорах я в чистовик не включала как факты.