Glossario EU AI Act
I principali termini del regolamento UE sull’IA (regolamento (UE) 2024/1689) – dall’allegato III all’avviso di trasparenza. Con riferimenti agli articoli.
A
Allegato I
Elenco della normativa di armonizzazione dell’UE (ad es. MDR, regolamento macchine) i cui prodotti regolamentati rientrano nell’EU AI Act quando integrano l’IA. Termine: agosto 2027.
Articoli: Art. 6, par. 1
Allegato III
Elenco degli 8 ambiti di applicazione ad alto rischio: biometria, infrastrutture critiche, istruzione, occupazione, servizi essenziali, attività di contrasto, migrazione e amministrazione della giustizia.
Articoli: Art. 6, par. 2
Allegato IV
Requisiti dettagliati per la documentazione tecnica dei sistemi di IA ad alto rischio. Definisce 13 sezioni obbligatorie.
Articoli: Art. 11
Alfabetizzazione in materia di IA (AI Literacy)
Obbligo di garantire che il personale che utilizza o supervisiona sistemi di IA disponga di competenze sufficienti in materia di IA. Si applica a tutte le organizzazioni che utilizzano l’IA.
Articoli: Art. 4
Avviso di trasparenza
Informazione obbligatoria destinata agli utenti e alle persone interessate sull’utilizzo di un sistema di IA: finalità, funzionamento, limitazioni e dati di contatto.
Articoli: Art. 13 (Fornitore); Art. 26 (Deployer); Art. 50 (GPAI)
B
Banca dati dell’UE per l’IA ad alto rischio
Banca dati dell’UE accessibile al pubblico in cui i fornitori e i deployer devono registrare i sistemi di IA ad alto rischio – prima dell’immissione sul mercato o della messa in servizio, rispettivamente.
Articoli: Art. 49; Art. 71
D
Deployer
Persona fisica o giuridica che utilizza un sistema di IA sotto la propria responsabilità – ad eccezione dell’uso personale e non professionale.
Articoli: Art. 3, n. 4; Art. 26
Documentazione tecnica
Documentazione completa di un sistema di IA ad alto rischio conforme alle 13 sezioni obbligatorie dell’Allegato IV. Deve essere redatta prima dell’immissione sul mercato e mantenuta aggiornata.
Articoli: Art. 11; Allegato IV
F
Fornitore (Provider)
Persona fisica o giuridica che sviluppa o fa sviluppare un sistema di IA e lo immette sul mercato o lo mette in servizio con il proprio nome o marchio.
Articoli: Art. 3, n. 3; Art. 16
FRIA (Fundamental Rights Impact Assessment)
Valutazione dell’impatto sui diritti fondamentali: analisi delle conseguenze di un sistema di IA ad alto rischio sui diritti fondamentali delle persone interessate. Obbligatoria per determinati deployer prima della messa in servizio.
Articoli: Art. 27
G
Governance dei dati
Requisiti per i set di dati di addestramento, convalida e test: pertinenza, rappresentatività, accuratezza e completezza. Misure per l’individuazione e la correzione dei bias.
Articoli: Art. 10
GPAI (General-Purpose AI)
Modelli di IA per finalità generali (ad es. modelli linguistici di grandi dimensioni) utilizzabili per una varietà di compiti. Soggetti a obblighi di trasparenza specifici.
Articoli: Art. 3, n. 63; Art. 51–56
GPAI a rischio sistemico
Modelli GPAI ad alta capacità (soglia: 10^25 FLOP) che comportano obblighi supplementari: red teaming, valutazione del modello, segnalazione degli incidenti.
Articoli: Art. 51, par. 2; Art. 55
Gruppi vulnerabili
Gruppi di persone particolarmente vulnerabili (minori, anziani, persone con disabilità) che devono essere oggetto di particolare attenzione nell’analisi dei rischi dei sistemi di IA.
Articoli: Art. 5, par. 1, lett. b); Art. 27, par. 3, lett. c)
I
Identificazione biometrica remota
Identificazione di persone fisiche a distanza tramite dati biometrici (ad es. riconoscimento facciale). L’identificazione biometrica remota in tempo reale negli spazi accessibili al pubblico è in linea di principio vietata.
Articoli: Art. 5, par. 1, lett. d); Allegato III, n. 1
Immissione sul mercato
La prima messa a disposizione di un sistema di IA sul mercato dell’Unione. Fa scattare gli obblighi di conformità del fornitore.
Articoli: Art. 3, n. 9
M
Marcatura CE
Marcatura di conformità che attesta che un sistema di IA ad alto rischio soddisfa tutti i requisiti dell’EU AI Act. Deve essere apposta prima dell’immissione sul mercato.
Articoli: Art. 48
O
Obbligo di trasparenza (art. 50)
Obbligo per i fornitori di determinati sistemi di IA (chatbot, deepfake, riconoscimento delle emozioni) di informare le persone dell’interazione con un’IA.
Articoli: Art. 50
P
Pratiche di IA vietate
Applicazioni di IA assolutamente vietate: punteggio sociale, manipolazione subliminale, sfruttamento delle vulnerabilità, raccolta non mirata di volti, riconoscimento delle emozioni sul luogo di lavoro (con eccezioni).
Articoli: Art. 5
R
Rischio minimo
Sistemi di IA privi di regolamentazione specifica ai sensi dell’EU AI Act. Si applicano unicamente codici di condotta volontari. Esempi: filtri antispam, IA nei videogiochi.
Articoli: Art. 95
S
Sistema di IA ad alto rischio
Sistema di IA utilizzato in uno dei settori elencati nell’Allegato III che presenta rischi significativi per la salute, la sicurezza o i diritti fondamentali. Soggetto a obblighi di conformità completi.
Articoli: Art. 6; Allegato III
Sorveglianza umana (Human Oversight)
Misure atte a garantire che un sistema di IA possa essere efficacemente supervisionato da persone fisiche. Comprende gli approcci human-in-the-loop, human-on-the-loop e human-in-command.
Articoli: Art. 14
Sistema di IA
Sistema basato su macchina progettato per funzionare con diversi livelli di autonomia che genera output quali previsioni, raccomandazioni o decisioni che influenzano ambienti fisici o virtuali.
Articoli: Art. 3, n. 1
Sorveglianza del mercato
Controllo ufficiale volto a verificare se i sistemi di IA sul mercato sono conformi ai requisiti dell’EU AI Act. Effettuato dalle autorità nazionali di sorveglianza del mercato.
Articoli: Art. 74–84
Sistema di gestione dei rischi
Processo iterativo continuo lungo l’intero ciclo di vita di un sistema di IA ad alto rischio: identificazione, analisi, valutazione e mitigazione dei rischi.
Articoli: Art. 9
Sandbox regolamentare
Quadro controllato istituito dalle autorità nazionali per consentire lo sviluppo e la sperimentazione di sistemi di IA innovativi sotto supervisione regolamentare.
Articoli: Art. 57–63
Sanzioni
Sanzioni pecuniarie in caso di non conformità: fino a 35 M€ / 7 % del fatturato (pratiche vietate), fino a 15 M€ / 3 % del fatturato (obblighi alto rischio), fino a 7,5 M€ / 1,5 % del fatturato (informazioni inesatte).
Articoli: Art. 99
U
Ufficio per l’IA (AI Office)
Ufficio europeo per l’IA presso la Commissione europea, responsabile della sorveglianza dei modelli GPAI e del coordinamento dell’applicazione dell’EU AI Act.
Articoli: Art. 64
V
Valutazione di conformità
Procedura volta a dimostrare che un sistema di IA ad alto rischio soddisfa tutti i requisiti dell’EU AI Act. Può essere effettuata internamente o da un organismo notificato.
Articoli: Art. 43
Social scoring (punteggio sociale)
Valutazione di persone fisiche sulla base del loro comportamento sociale o delle loro caratteristiche personali da parte di autorità pubbliche. Pratica di IA vietata ai sensi dell’art. 5.
Articoli: Art. 5, par. 1, lett. c)