Ce que couvre l'Annexe III catégorie 3
Le EU AI Act liste explicitement trois sous-domaines à haut risque dans l'éducation et la formation professionnelle :
- Accès à l'éducation – systèmes d'IA qui déterminent si une personne est admise dans un établissement ou programme d'enseignement (ex. admissions universitaires, affectation scolaire)
- Évaluation des résultats d'apprentissage – IA utilisée pour évaluer les étudiants, y compris la notation automatisée de dissertations, la notation d'examens et l'évaluation des compétences
- Surveillance et détection lors des examens – systèmes de surveillance basés sur l'IA qui surveillent le comportement des étudiants pendant les tests, y compris le suivi du regard, la détection de mouvements et la surveillance du navigateur
Scénarios typiques et niveaux de risque
| Application | Niveau de risque | Base EU AI Act |
|---|---|---|
| IA pour admissions universitaires | Haut risque | Annex III Nr. 3(a) |
| Notation automatisée de dissertations/examens | Haut risque | Annex III Nr. 3(b) |
| Surveillance IA / proctoring d'examens | Haut risque | Annex III Nr. 3(c) |
| Plateformes d'apprentissage adaptatif | Risque limité | Art. 50 |
| Chatbot de tutorat IA | Risque limité | Art. 50(1) |
| Système de gestion de l'apprentissage (LMS) | Risque minimal | — |
Pourquoi l'IA éducative est particulièrement sensible
L'IA dans l'éducation touche une population particulièrement vulnérable – les enfants et les jeunes. Le considérant 47 du EU AI Act souligne expressément que les systèmes d'IA dans l'éducation peuvent avoir des conséquences significatives sur les opportunités futures des individus. Les préoccupations centrales incluent :
- Les biais algorithmiques peuvent systématiquement désavantager les étudiants issus de certains milieux socio-économiques ou ethniques
- L'IA de surveillance peut signaler de manière disproportionnée les étudiants en situation de handicap ou ayant des environnements de test non standard
- L'IA d'admission peut perpétuer les inégalités historiques si elle est entraînée sur des données biaisées
- Droit à l'explication : les étudiants et les parents ont un intérêt légitime à comprendre comment les décisions basées sur l'IA ont été prises
Interaction RGPD et AI Act dans les écoles
L'IA éducative traite typiquement des données personnelles de mineurs, ce qui déclenche des protections RGPD renforcées. Les écoles et universités en tant que déployeurs font face à des obligations de conformité doubles :
- RGPD art. 8 — Le consentement des mineurs nécessite l'approbation parentale dans de nombreux États membres
- RGPD art. 22 — Droit de ne pas être soumis à une prise de décision entièrement automatisée
- EU AI Act art. 14 — Supervision humaine obligatoire pour toute IA éducative à haut risque
- EU AI Act art. 27 — FRIA obligatoire lorsque des établissements d'enseignement publics déploient une IA à haut risque
Obligations de documentation
Pour les fournisseurs et déployeurs d'IA à haut risque dans l'éducation :
- Documentation technique selon l'Annexe IV – avec un accent particulier sur les tests de biais, la représentativité des données et les métriques d'équité
- Avis de transparence – Les étudiants, parents et enseignants doivent être informés de l'utilisation de l'IA dans les décisions éducatives (Art. 13 + Art. 26)
- FRIA – Obligatoire pour les établissements d'enseignement publics déployant une IA à haut risque selon Art. 27
Prochaines étapes pour votre organisation
- Inventaire – Identifiez tous les outils d'IA utilisés dans l'enseignement, l'évaluation, les admissions et l'administration
- Classification – Utilisez le contrôle de risque gratuit
- Documentation – Générez votre documentation de conformité
Générer des projets de conformité pour l'IA éducative maintenant →