Que sont les systèmes d'IA à haut risque ?
Art. 6, paragraphe 2, du règlement (UE) 2024/1689 définit : un système d'IA est à haut risque s'il est utilisé dans l'un des domaines énumérés à l'Annexe III et présente un risque significatif pour la santé, la sécurité ou les droits fondamentaux des personnes physiques.
Les systèmes d'IA à haut risque sont soumis aux obligations les plus complètes de l'EU AI Act – notamment la Documentation technique, le système de gestion des risques, la gouvernance des données, la surveillance humaine et la FRIA.
Les 8 catégories de l'Annexe III
1. Biométrie
Systèmes d'IA pour l'identification biométrique à distance en temps réel et a posteriori, la catégorisation biométrique et la reconnaissance des émotions sur le lieu de travail ou dans les établissements d'enseignement.
Exemples : Reconnaissance faciale dans les espaces publics, contrôles d'accès biométriques, reconnaissance des émotions lors d'examens.
2. Infrastructures critiques
Systèmes d'IA utilisés comme composants de sécurité dans la gestion et l'exploitation d'infrastructures numériques critiques, du trafic routier, de l'approvisionnement en eau, gaz, chauffage et électricité.
Exemples : Systèmes de gestion du trafic pilotés par l'IA, optimisation des réseaux énergétiques, composants de véhicules autonomes.
3. Éducation et formation professionnelle
Systèmes d'IA pour déterminer l'accès aux établissements d'enseignement, évaluer les résultats d'apprentissage, déterminer le niveau d'éducation et surveiller les examens.
Exemples : Sélection automatisée des candidatures pour les universités, systèmes de notation par IA, logiciels de surveillance d'examens.
4. Emploi, gestion des ressources humaines et accès au travail indépendant
Systèmes d'IA pour le recrutement, la promotion, le licenciement, l'attribution de tâches, le suivi et l'évaluation des performances dans le contexte professionnel.
Exemples : Outils de présélection de CV, analyse d'entretiens vidéo assistée par IA, systèmes de gestion de la performance, recommandations de promotion.
Note : Cette catégorie est particulièrement pertinente pour les départements RH. Les directives européennes anti-discrimination s'appliquent en parallèle.
5. Accès aux services privés et publics essentiels et jouissance de ces services
Divisé en plusieurs sous-catégories :
- 5(a) – Évaluation de la solvabilité des personnes physiques (sauf détection de fraude financière)
- 5(b) – Évaluation des risques et tarification en assurance vie et santé
Exemples : Scoring de crédit, tarification d'assurance. Particulièrement pertinent pour le secteur financier.
6. Répression
Systèmes d'IA pour l'évaluation du risque de criminalité, les polygraphes et outils similaires, l'évaluation de la fiabilité des preuves, le profilage des personnes.
Exemples : Police prédictive, analyse automatisée des preuves, évaluation du risque de récidive.
7. Migration, asile et contrôle aux frontières
Systèmes d'IA pour l'évaluation des risques liés à la migration, le traitement des demandes d'asile, le contrôle aux frontières et le traitement des visas.
Exemples : Examen automatisé des demandes de visa, évaluation des risques des voyageurs, vérification de documents.
8. Administration de la justice et processus démocratiques
Systèmes d'IA pour aider à l'interprétation des faits et du droit, à l'application du droit et à l'influence des élections.
Exemples : Systèmes d'aide à la décision judiciaire, analyse juridique automatisée, influence électorale par microciblage.
Obligations pour les systèmes d'IA à haut risque
Des obligations complètes s'appliquent à chaque système d'IA à haut risque :
| Obligation | Article | Responsable |
|---|---|---|
| Système de gestion des risques | Art. 9 | Fournisseur |
| Gouvernance des données | Art. 10 | Fournisseur |
| Documentation technique | Art. 11 + Annexe IV | Fournisseur |
| Tenue de registres | Art. 12 | Fournisseur |
| Transparence et information | Art. 13 | Fournisseur |
| Surveillance humaine | Art. 14 | Fournisseur + Déployeur |
| Exactitude, robustesse, cybersécurité | Art. 15 | Fournisseur |
| FRIA | Art. 27 | Déployeur |
| Évaluation de la conformité | Art. 43 | Fournisseur |
| Enregistrement dans la base de données de l'UE | Art. 49 | Fournisseur + Déployeur |
Votre système est-il à haut risque ?
Utilisez notre analyse de risque gratuite pour déterminer en 2 minutes si votre système d'IA relève de l'Annexe III. En cas de classification à haut risque, vous pouvez directement générer les brouillons de conformité requis.