Glossaire EU AI Act
Les principaux termes du règlement UE sur l’IA (règlement (UE) 2024/1689) – de l’annexe III à l’avis de transparence. Avec références d’articles.
A
Annexe I
Liste de la législation d’harmonisation de l’UE (p. ex. MDR, règlement machines) dont les produits réglementés relèvent de l’EU AI Act lorsqu’ils intègrent de l’IA. Échéance : août 2027.
Articles : Art. 6, par. 1
Annexe III
Liste des 8 domaines d’application à haut risque : biométrie, infrastructures critiques, éducation, emploi, services essentiels, répression, migration et administration de la justice.
Articles : Art. 6, par. 2
Annexe IV
Exigences détaillées relatives à la documentation technique des systèmes d’IA à haut risque. Définit 13 sections obligatoires.
Articles : Art. 11
Avis de transparence
Information obligatoire destinée aux utilisateurs et aux personnes concernées concernant l’utilisation d’un système d’IA : finalité, fonctionnement, limites et coordonnées.
Articles : Art. 13 (Fournisseur) ; Art. 26 (Déployeur) ; Art. 50 (GPAI)
B
Base de données de l’UE pour l’IA à haut risque
Base de données de l’UE accessible au public dans laquelle les fournisseurs et déployeurs doivent enregistrer les systèmes d’IA à haut risque – avant la mise sur le marché ou la mise en service, respectivement.
Articles : Art. 49 ; Art. 71
Bureau de l’IA (AI Office)
Bureau européen de l’IA au sein de la Commission européenne, chargé de la surveillance des modèles GPAI et de la coordination de l’application de l’EU AI Act.
Articles : Art. 64
Bac à sable réglementaire
Cadre contrôlé mis en place par les autorités nationales pour permettre le développement et les essais de systèmes d’IA innovants sous supervision réglementaire.
Articles : Art. 57–63
C
Contrôle humain (Human Oversight)
Mesures garantissant qu’un système d’IA peut être effectivement supervisé par des personnes physiques. Comprend les approches human-in-the-loop, human-on-the-loop et human-in-command.
Articles : Art. 14
D
Déployeur (Deployer)
Personne physique ou morale qui utilise un système d’IA sous sa propre responsabilité – à l’exception d’une utilisation personnelle et non professionnelle.
Articles : Art. 3, par. 4 ; Art. 26
Documentation technique
Documentation complète d’un système d’IA à haut risque conformément aux 13 sections obligatoires de l’Annexe IV. Doit être établie avant la mise sur le marché et tenue à jour.
Articles : Art. 11 ; Annexe IV
F
Fournisseur (Provider)
Personne physique ou morale qui développe ou fait développer un système d’IA et le met sur le marché ou le met en service sous son propre nom ou sa propre marque.
Articles : Art. 3, par. 3 ; Art. 16
FRIA (Fundamental Rights Impact Assessment)
Évaluation de l’impact sur les droits fondamentaux : analyse des conséquences d’un système d’IA à haut risque sur les droits fondamentaux des personnes concernées. Obligatoire pour certains déployeurs avant la mise en service.
Articles : Art. 27
G
Gouvernance des données
Exigences relatives aux jeux de données d’entraînement, de validation et de test : pertinence, représentativité, exactitude et exhaustivité. Mesures de détection et de correction des biais.
Articles : Art. 10
GPAI (General-Purpose AI)
Modèles d’IA à usage général (p. ex. grands modèles de langage) pouvant être utilisés pour une variété de tâches. Soumis à des obligations de transparence spécifiques.
Articles : Art. 3, par. 63 ; Art. 51–56
GPAI à risque systémique
Modèles GPAI à haute capacité (seuil : 10^25 FLOP) entraînant des obligations supplémentaires : red teaming, évaluation du modèle, signalement d’incidents.
Articles : Art. 51, par. 2 ; Art. 55
Groupes vulnérables
Groupes de personnes particulièrement vulnérables (mineurs, personnes âgées, personnes handicapées) devant faire l’objet d’une attention particulière dans l’analyse des risques des systèmes d’IA.
Articles : Art. 5, par. 1, point b) ; Art. 27, par. 3, point c)
I
Identification biométrique à distance
Identification de personnes physiques à distance au moyen de données biométriques (p. ex. reconnaissance faciale). L’identification biométrique à distance en temps réel dans les espaces accessibles au public est en principe interdite.
Articles : Art. 5, par. 1, point d) ; Annexe III, n° 1
M
Marquage CE
Marquage de conformité attestant qu’un système d’IA à haut risque satisfait à toutes les exigences de l’EU AI Act. Doit être apposé avant la mise sur le marché.
Articles : Art. 48
Mise sur le marché
La première mise à disposition d’un système d’IA sur le marché de l’Union. Déclenche les obligations de conformité du fournisseur.
Articles : Art. 3, par. 9
Maîtrise de l’IA (AI Literacy)
Obligation de veiller à ce que le personnel exploitant ou supervisant des systèmes d’IA dispose de compétences suffisantes en matière d’IA. S’applique à toutes les organisations déployant de l’IA.
Articles : Art. 4
O
Obligation de transparence (art. 50)
Obligation pour les fournisseurs de certains systèmes d’IA (chatbots, hypertrucages, reconnaissance des émotions) d’informer les personnes de l’interaction avec une IA.
Articles : Art. 50
P
Pratiques d’IA interdites
Applications d’IA absolument interdites : notation sociale, manipulation subliminale, exploitation de vulnérabilités, collecte non ciblée de visages, reconnaissance des émotions sur le lieu de travail (avec exceptions).
Articles : Art. 5
R
Risque minimal
Systèmes d’IA sans réglementation spécifique au titre de l’EU AI Act. Seuls des codes de conduite volontaires s’appliquent. Exemples : filtres anti-spam, IA dans les jeux vidéo.
Articles : Art. 95
S
Système d’IA à haut risque
Système d’IA utilisé dans l’un des domaines énumérés à l’Annexe III et présentant des risques importants pour la santé, la sécurité ou les droits fondamentaux. Soumis à des obligations de conformité complètes.
Articles : Art. 6 ; Annexe III
Système d’IA
Système basé sur une machine conçu pour fonctionner avec différents niveaux d’autonomie et générant des résultats tels que des prédictions, des recommandations ou des décisions influant sur des environnements physiques ou virtuels.
Articles : Art. 3, par. 1
Surveillance du marché
Contrôle officiel visant à vérifier si les systèmes d’IA sur le marché sont conformes aux exigences de l’EU AI Act. Effectué par les autorités nationales de surveillance du marché.
Articles : Art. 74–84
Système de gestion des risques
Processus itératif continu tout au long du cycle de vie d’un système d’IA à haut risque : identification, analyse, évaluation et atténuation des risques.
Articles : Art. 9
Sanctions
Amendes en cas de non-conformité : jusqu’à 35 M€ / 7 % du chiffre d’affaires (pratiques interdites), jusqu’à 15 M€ / 3 % du chiffre d’affaires (obligations haut risque), jusqu’à 7,5 M€ / 1,5 % du chiffre d’affaires (informations inexactes).
Articles : Art. 99
É
Évaluation de conformité
Procédure visant à démontrer qu’un système d’IA à haut risque satisfait à toutes les exigences de l’EU AI Act. Peut être réalisée en interne ou par un organisme notifié.
Articles : Art. 43
Du glossaire à la conformité
Vous connaissez les termes – créez maintenant les documents. Dès 149 €.
Générer les brouillons
Social scoring (notation sociale)
Évaluation de personnes physiques sur la base de leur comportement social ou de leurs caractéristiques personnelles par des autorités publiques. Pratique d’IA interdite en vertu de l’art. 5.
Articles : Art. 5, par. 1, point c)