Les RH comme domaine central du EU AI Act
Annexe III n° 4 du Règlement (UE) 2024/1689 répertorie explicitement les systèmes d'IA dans le domaine de l'emploi, la gestion de la main-d'œuvre et l'accès au travail indépendant comme étant à haut risque. Cela comprend :
- Systèmes d'IA pour le recrutement et la sélection des candidats (présélection, classement, pré-sélection)
- IA pour les décisions de promotion et l'attribution des tâches
- IA pour le suivi et l'évaluation des performances des employés
- IA pour les décisions de licenciement
Scénarios typiques à haut risque dans les RH
| Application | Haut risque ? | Justification |
|---|---|---|
| Présélection de CV / classement des candidats | Oui | Annexe III n° 4 – recrutement |
| Analyse d'entretien vidéo | Oui | Annexe III n° 4 + n° 1 (biométrie) |
| Notation des performances des employés | Oui | Annexe III n° 4 – évaluation des performances |
| Recommandations de promotion | Oui | Annexe III n° 4 – promotion |
| Reconnaissance des émotions sur le lieu de travail | Interdit | Art. 5 – Pratiques interdites |
| Planification des horaires / des équipes | Non | Aucun impact sur les droits fondamentaux |
| Chatbot pour FAQ RH | Non | L'obligation de transparence Art. 50 suffit |
Risques de discrimination particuliers
L'IA dans les RH comporte des risques de discrimination particulièrement élevés. Le EU AI Act exige donc des mesures complètes :
- Gouvernance des données (Art. 10) – Les données d'entraînement doivent être vérifiées pour détecter les biais. Les données historiques d'embauche peuvent contenir des schémas discriminatoires.
- Exactitude et robustesse (Art. 15) – Les métriques de performance doivent être rapportées séparément pour les différents groupes démographiques.
- Contrôle humain (Art. 14) – Les recommandations de l'IA ne doivent pas être mises en œuvre automatiquement. L'intervention humaine (human-in-the-loop) est obligatoire.
Parallèlement, les directives européennes anti-discrimination s'appliquent : Directive 2000/43/CE (directive sur l'égalité raciale), Directive 2000/78/CE (directive-cadre sur l'égalité de traitement en matière d'emploi) et en Allemagne l'AGG (loi générale sur l'égalité de traitement).
Obligation FRIA dans les RH
En vertu de Art. 27 EU AI Act, les déployeurs de systèmes d'IA RH au titre de l'Annexe III n° 4 doivent réaliser une Évaluation d'impact sur les droits fondamentaux (FRIA). Domaines clés :
- Non-discrimination (Art. 21 EU-GRC) – Risques liés au genre, à l'âge, à l'origine, au handicap
- Droit au travail (Art. 15 EU-GRC) – Accès à l'emploi
- Conditions de travail équitables (Art. 31 EU-GRC) – Dans le suivi des performances
- Protection des données (Art. 8 EU-GRC) – Traitement des données des candidats
Cas particulier : Comité d'entreprise et codétermination
En Allemagne, en Autriche et dans d'autres pays de l'UE, les comités d'entreprise disposent d'un droit de codétermination lors de l'introduction de systèmes de surveillance technique (§ 87(1)(6) BetrVG en Allemagne). Les systèmes d'IA dans les RH déclenchent presque toujours cette exigence de codétermination.
Conseil : La documentation EU AI Act (en particulier la documentation technique et l'avis de transparence) sert simultanément de base pour la consultation du comité d'entreprise.
Obligations de documentation pour l'IA RH
- Documentation technique – Pour les fournisseurs d'outils d'IA RH
- Avis de transparence – Les candidats et les employés doivent être informés de l'utilisation de l'IA
- FRIA – Pour les déployeurs (services RH utilisant un outil externe)
- Documentation des biais – Preuve des tests d'équité pour les différents groupes démographiques
Prochaines étapes
- Inventaire – Quels outils d'IA votre service RH utilise-t-il ?
- Vérification des risques – Vérifier gratuitement si un système à haut risque est présent
- Impliquer le comité d'entreprise – Informer tôt et fournir la documentation
- Créer la documentation – Générer des projets de conformité avec un contexte spécifique aux RH