title: “Как AI HR-системы в Европе принимают непрозрачные решения о найме и увольнениях” slug: “kak-ai-hr-sistemy-v-evrope-prinimayut-neprozrachnye-resheniya-o-nayme-i-uvolneniyah” date: 2026-05-03 category: investigations tags: [ai, labor, surveillance, law] summary: “Я сижу, смотрю на очередную вакансию в европейской компании, и меня цепляет одна мелочь: «Мы используем data-driven hiring для объективности и скорости».” sources: [] status: draft featured: false image: “/static/2026-05-03_kak-ai-hr-sistemy-v-evrope-prinimayut-neprozrachnye-resheniya-o-nayme-i-uvolneniyah-news-cover.webp”

Как AI HR-системы в Европе принимают непрозрачные решения о найме и увольнениях

cover

Я сижу, смотрю на очередную вакансию в европейской компании, и меня цепляет одна мелочь:
«Мы используем data-driven hiring для объективности и скорости».

Красиво.

Настолько красиво, что я полезла проверять, как это «объективно» работает, когда человеку приходит отказ через несколько минут — или когда сотруднику объясняют увольнение фразой из серии «модель показала риск».

И вот тут, конечно, начинается самое интересное.

Что на самом деле происходит в HR: не “ИИ вообще”, а решения с последствиями

В публичных разговорах всё смешали в одну кучу: чат-боты, генерация текста, автоматические письма, аналитика, видеособеседования.

Но если убрать маркетинговый туман, проблема очень конкретная.

Речь о алгоритмических HR-решениях, которые влияют на жизнь человека:
кого позвали на интервью, кого отсеяли, кому дали смены, кого пометили как «низкоэффективного», кого сократили.

То есть не «ой, ИИ помог написать описание вакансии», а «алгоритм ранжировал людей так, что один получил оффер, а другой — нет».

Именно такие сценарии в ЕС уже попадают под жёсткую правовую рамку.

Правовая рамка в ЕС: она не будущая, она уже здесь

Когда я полезла в документы, картина получилась очень приземлённая.

Есть GDPR, статья 22: у человека есть право не подпадать под решение, основанное исключительно на автоматизированной обработке, если такое решение даёт правовые или существенно значимые последствия.
Трудовые последствия — это как раз тот случай.

Простыми словами: нельзя просто нажать кнопку «модель решила» и умыть руки, если речь о найме, карьере, доходе, увольнении.

В связке с этим работают и другие права в GDPR (на практике через ст. 13–15, 21–22):
человек может запросить информацию, доступ к данным, оспорить решение и попросить вмешательство живого человека.

И отдельно — EU AI Act.
Он относит системы ИИ для найма, отбора, решений по условиям занятости и увольнению к категории high-risk.

High-risk — это не «немножко риск», а «ребята, у вас повышенные обязанности».
Там уже про управление рисками, документацию, качество данных, человеческий надзор (human oversight), прозрачность и проверяемость.

То есть регулятор прямо говорит: HR-ИИ — зона повышенной опасности для прав человека.

Главная поломка: непрозрачность как рабочая модель

Ой, вот тут особенно показательно.

На рынке много обещаний «объективности».
А на практике одна из самых устойчивых проблем — дефицит explainability (объяснимости) и аудируемости.

Explainability — термин модный, я погуглила простыми словами:
это когда можно внятно объяснить, почему система выдала именно такой результат по конкретному человеку.

Не общими словами «модель решила», а по сути: какие факторы сработали, где ошибка, как оспорить.

Профильные обзоры и регуляторная повестка это подтверждают: в HR именно с этим регулярно провал.

И это не эстетическая проблема для конференций.
Это проблема прав и денег.

Если кандидат получает отказ, а сотрудник — санкцию или увольнение, но никто не может объяснить логику решения, человек остаётся в тупике: как защищаться от решения, которое нельзя проверить?

Дискриминация: старый перекос в новом интерфейсе

Я сначала думала, что здесь будет какая-то экзотика.
Ага, сейчас.

Механика старая, как мир: модель учится на исторических данных и впитывает историческую несправедливость.

Если раньше в компании чаще продвигали определённый профиль людей, если карьерные перерывы трактовались как «минус», если возраст или стиль карьеры неформально считались «не теми» — алгоритм может начать воспроизводить это как норму.

Важно говорить аккуратно: без непроверенных процентов и крикливых цифр.
Но сам класс риска подтверждён и академически, и регуляторно.

И это нужно проговаривать по-человечески, без тумана:
алгоритм может не видеть «женщину» или «50+» как прямую метку, но использовать прокси-признаки, которые дают тот же эффект.
Старому перекосу просто выдали новый бейджик «AI-powered».

“Право на объяснение” — не магическая кнопка, но и не пустой звук

Здесь много путаницы, и компании этим охотно пользуются.

Нельзя честно написать: «GDPR требует раскрыть весь исходный код».
Это неверно.

Но и позиция «мы ничего не обязаны объяснять, потому что коммерческая тайна» — тоже удобная сказка.

Корректнее так: GDPR даёт человеку право на meaningful information (значимую информацию) о логике обработки в контексте его прав, плюс право оспаривания и человеческого вмешательства.
Meaningful information — это не «держите 200 страниц кода», а понятное объяснение механики, влияющей на судьбу конкретного человека.

То есть спрятаться за фразой «сложная модель, сами понимаете» всё сложнее.
И будет ещё сложнее.

Масштаб внедрения: да, он большой — но без натяжек

Я отдельно проверила самый любимый жанр этой темы — «проценты для шока».

Безопасная формулировка такая:
крупные международные опросы, включая Deloitte, показывают широкое использование и пилотирование AI в HR на глобальном уровне; сопоставимые тренды наблюдаются и у европейских работодателей.

Важно: именно глобальные данные часто пытаются выдать за «точно по Европе».
Так делать нельзя.

Но даже без спорных локальных процентов картина очевидна: внедрение массовое, и скорость выше, чем зрелость контроля.

Где уязвимость компаний — и почему это уже не только “этика”

Раньше эту тему обсуждали как корпоративную «ответственность».
Теперь это всё больше зона правовых рисков.

Если у вас HR-система принимает или поддерживает решение с серьёзным эффектом для человека, а вы не можете:

  • показать логику процесса,
  • подтвердить качество данных,
  • продемонстрировать человеческий контроль,
  • обеспечить процедуру оспаривания,

то это не просто «неудобно в PR».
Это потенциальные претензии регулятора, трудовые споры и репутационный удар.

И отдельно: ссылки на «эффективность» больше не спасают автоматически.
Регуляторная логика в ЕС простая: эффективность не отменяет прав.

Две волны, которые нельзя путать

Это важный кусок, потому что в разговорах всё опять склеивают.

Первая волна — algorithmic management (до и после 2023):
скоринг, ранжирование кандидатов, распределение смен, KPI-мониторинг, риск-профили, автоматизированные HR-решения.

Именно здесь выросла основная проблема найма/увольнений «чёрным ящиком».

Вторая волна — generative AI (с 2023+):
генерация вакансий, автосуммаризация интервью, LLM-ассистенты рекрутеров.

Generative AI не отменил старые риски, а добавил новый слой:
к старому непрозрачному контуру теперь прикрутили автоматизированное производство HR-контента и интерпретаций.

То есть если коротко: проблема началась не с чат-бота.
И не закончится, если запретить пару модных инструментов.

Что это значит для обычного человека

Я призадумалась: как выглядит минимальная самозащита, если ты кандидат или сотрудник в этой системе.

На практике — задавать неудобные вопросы и фиксировать ответы:

  • Было ли решение полностью автоматизированным?
  • Какие данные использовались?
  • Кто и как проводил human review (человеческую проверку)?
  • Как подать возражение и в какие сроки?
  • Какие критерии были решающими по моему кейсу?

Да, это звучит бюрократично.
Но иначе вас оставляют в ситуации «вам отказано, потому что так посчитала система».
Очень удобно для системы. Очень плохо для человека.

И что дальше

Европа сейчас делает то, что давно пора было делать: признаёт, что HR-алгоритмы — это инфраструктура власти над людьми, а не нейтральная техноштука.

Если система влияет на доступ к работе и доходу, к ней должны быть требования как к инструменту с высоким риском.
С проверками, ответственностью и человеческим участием, а не с рекламным слоганом про «объективность».

Потому что в финале всё упирается в простой вопрос:
кто принимает решение о вашей жизни — и можно ли это решение проверить и оспорить.

Если нельзя, это не «инновация».
Это непрозрачный приговор с красивым интерфейсом.

Отдельно скажу про материалы. В этом тексте я сознательно опиралась на подтверждённый пакет: правовую рамку GDPR (включая ст. 22 и связанные права), квалификацию HR-ИИ как high-risk в EU AI Act, консенсус по проблеме explainability/аудируемости и аккуратную формулировку про масштаб внедрения (без подмены глобальных цифр «точно европейскими»). Неподтверждённые персональные истории, спорные проценты и недоказанные утверждения о конкретных вендорах я в чистовик не включала как факты.