Vai al contenuto

Glossario EU AI Act

I principali termini del regolamento UE sull’IA (regolamento (UE) 2024/1689) – dall’allegato III all’avviso di trasparenza. Con riferimenti agli articoli.

A

Allegato I

Elenco della normativa di armonizzazione dell’UE (ad es. MDR, regolamento macchine) i cui prodotti regolamentati rientrano nell’EU AI Act quando integrano l’IA. Termine: agosto 2027.

Articoli: Art. 6, par. 1

Allegato III

Elenco degli 8 ambiti di applicazione ad alto rischio: biometria, infrastrutture critiche, istruzione, occupazione, servizi essenziali, attività di contrasto, migrazione e amministrazione della giustizia.

Articoli: Art. 6, par. 2

Allegato IV

Requisiti dettagliati per la documentazione tecnica dei sistemi di IA ad alto rischio. Definisce 13 sezioni obbligatorie.

Articoli: Art. 11

Alfabetizzazione in materia di IA (AI Literacy)

Obbligo di garantire che il personale che utilizza o supervisiona sistemi di IA disponga di competenze sufficienti in materia di IA. Si applica a tutte le organizzazioni che utilizzano l’IA.

Articoli: Art. 4

Avviso di trasparenza

Informazione obbligatoria destinata agli utenti e alle persone interessate sull’utilizzo di un sistema di IA: finalità, funzionamento, limitazioni e dati di contatto.

Articoli: Art. 13 (Fornitore); Art. 26 (Deployer); Art. 50 (GPAI)

B

Banca dati dell’UE per l’IA ad alto rischio

Banca dati dell’UE accessibile al pubblico in cui i fornitori e i deployer devono registrare i sistemi di IA ad alto rischio – prima dell’immissione sul mercato o della messa in servizio, rispettivamente.

Articoli: Art. 49; Art. 71

D

Deployer

Persona fisica o giuridica che utilizza un sistema di IA sotto la propria responsabilità – ad eccezione dell’uso personale e non professionale.

Articoli: Art. 3, n. 4; Art. 26

Documentazione tecnica

Documentazione completa di un sistema di IA ad alto rischio conforme alle 13 sezioni obbligatorie dell’Allegato IV. Deve essere redatta prima dell’immissione sul mercato e mantenuta aggiornata.

Articoli: Art. 11; Allegato IV

F

Fornitore (Provider)

Persona fisica o giuridica che sviluppa o fa sviluppare un sistema di IA e lo immette sul mercato o lo mette in servizio con il proprio nome o marchio.

Articoli: Art. 3, n. 3; Art. 16

FRIA (Fundamental Rights Impact Assessment)

Valutazione dell’impatto sui diritti fondamentali: analisi delle conseguenze di un sistema di IA ad alto rischio sui diritti fondamentali delle persone interessate. Obbligatoria per determinati deployer prima della messa in servizio.

Articoli: Art. 27

G

Governance dei dati

Requisiti per i set di dati di addestramento, convalida e test: pertinenza, rappresentatività, accuratezza e completezza. Misure per l’individuazione e la correzione dei bias.

Articoli: Art. 10

GPAI (General-Purpose AI)

Modelli di IA per finalità generali (ad es. modelli linguistici di grandi dimensioni) utilizzabili per una varietà di compiti. Soggetti a obblighi di trasparenza specifici.

Articoli: Art. 3, n. 63; Art. 51–56

GPAI a rischio sistemico

Modelli GPAI ad alta capacità (soglia: 10^25 FLOP) che comportano obblighi supplementari: red teaming, valutazione del modello, segnalazione degli incidenti.

Articoli: Art. 51, par. 2; Art. 55

Gruppi vulnerabili

Gruppi di persone particolarmente vulnerabili (minori, anziani, persone con disabilità) che devono essere oggetto di particolare attenzione nell’analisi dei rischi dei sistemi di IA.

Articoli: Art. 5, par. 1, lett. b); Art. 27, par. 3, lett. c)

I

Identificazione biometrica remota

Identificazione di persone fisiche a distanza tramite dati biometrici (ad es. riconoscimento facciale). L’identificazione biometrica remota in tempo reale negli spazi accessibili al pubblico è in linea di principio vietata.

Articoli: Art. 5, par. 1, lett. d); Allegato III, n. 1

Immissione sul mercato

La prima messa a disposizione di un sistema di IA sul mercato dell’Unione. Fa scattare gli obblighi di conformità del fornitore.

Articoli: Art. 3, n. 9

M

Marcatura CE

Marcatura di conformità che attesta che un sistema di IA ad alto rischio soddisfa tutti i requisiti dell’EU AI Act. Deve essere apposta prima dell’immissione sul mercato.

Articoli: Art. 48

O

Obbligo di trasparenza (art. 50)

Obbligo per i fornitori di determinati sistemi di IA (chatbot, deepfake, riconoscimento delle emozioni) di informare le persone dell’interazione con un’IA.

Articoli: Art. 50

P

Pratiche di IA vietate

Applicazioni di IA assolutamente vietate: punteggio sociale, manipolazione subliminale, sfruttamento delle vulnerabilità, raccolta non mirata di volti, riconoscimento delle emozioni sul luogo di lavoro (con eccezioni).

Articoli: Art. 5

R

Rischio minimo

Sistemi di IA privi di regolamentazione specifica ai sensi dell’EU AI Act. Si applicano unicamente codici di condotta volontari. Esempi: filtri antispam, IA nei videogiochi.

Articoli: Art. 95

S

Sistema di IA ad alto rischio

Sistema di IA utilizzato in uno dei settori elencati nell’Allegato III che presenta rischi significativi per la salute, la sicurezza o i diritti fondamentali. Soggetto a obblighi di conformità completi.

Articoli: Art. 6; Allegato III

Sorveglianza umana (Human Oversight)

Misure atte a garantire che un sistema di IA possa essere efficacemente supervisionato da persone fisiche. Comprende gli approcci human-in-the-loop, human-on-the-loop e human-in-command.

Articoli: Art. 14

Sistema di IA

Sistema basato su macchina progettato per funzionare con diversi livelli di autonomia che genera output quali previsioni, raccomandazioni o decisioni che influenzano ambienti fisici o virtuali.

Articoli: Art. 3, n. 1

Sorveglianza del mercato

Controllo ufficiale volto a verificare se i sistemi di IA sul mercato sono conformi ai requisiti dell’EU AI Act. Effettuato dalle autorità nazionali di sorveglianza del mercato.

Articoli: Art. 74–84

Sistema di gestione dei rischi

Processo iterativo continuo lungo l’intero ciclo di vita di un sistema di IA ad alto rischio: identificazione, analisi, valutazione e mitigazione dei rischi.

Articoli: Art. 9

Sandbox regolamentare

Quadro controllato istituito dalle autorità nazionali per consentire lo sviluppo e la sperimentazione di sistemi di IA innovativi sotto supervisione regolamentare.

Articoli: Art. 57–63

Sanzioni

Sanzioni pecuniarie in caso di non conformità: fino a 35 M€ / 7 % del fatturato (pratiche vietate), fino a 15 M€ / 3 % del fatturato (obblighi alto rischio), fino a 7,5 M€ / 1,5 % del fatturato (informazioni inesatte).

Articoli: Art. 99

Social scoring (punteggio sociale)

Valutazione di persone fisiche sulla base del loro comportamento sociale o delle loro caratteristiche personali da parte di autorità pubbliche. Pratica di IA vietata ai sensi dell’art. 5.

Articoli: Art. 5, par. 1, lett. c)

U

Ufficio per l’IA (AI Office)

Ufficio europeo per l’IA presso la Commissione europea, responsabile della sorveglianza dei modelli GPAI e del coordinamento dell’applicazione dell’EU AI Act.

Articoli: Art. 64

V

Valutazione di conformità

Procedura volta a dimostrare che un sistema di IA ad alto rischio soddisfa tutti i requisiti dell’EU AI Act. Può essere effettuata internamente o da un organismo notificato.

Articoli: Art. 43

Dal glossario alla conformità

Conoscete i termini – ora create i documenti. Da 149 €.

Genera le bozze
Glossario EU AI Act – Termini chiave e definizioni | AIvunera