Cosa copre l'Allegato III categoria 3
Il EU AI Act elenca esplicitamente tre sotto-aree ad alto rischio nell'istruzione e nella formazione professionale:
- Accesso all'istruzione – sistemi di IA che determinano se una persona è ammessa a un istituto o programma di istruzione (es. ammissioni universitarie, assegnazione scolastica)
- Valutazione dei risultati dell'apprendimento – IA utilizzata per valutare gli studenti, inclusa la valutazione automatizzata dei saggi, la valutazione degli esami e la valutazione delle competenze
- Sorveglianza e rilevamento durante gli esami – sistemi di sorveglianza basati sull'IA che monitorano il comportamento degli studenti durante i test, incluso il tracciamento dello sguardo, il rilevamento dei movimenti e il monitoraggio del browser
Scenari tipici e livelli di rischio
| Applicazione | Livello di rischio | Base EU AI Act |
|---|---|---|
| IA per ammissioni universitarie | Alto rischio | Annex III Nr. 3(a) |
| Valutazione automatizzata di saggi/esami | Alto rischio | Annex III Nr. 3(b) |
| Sorveglianza IA / proctoring esami | Alto rischio | Annex III Nr. 3(c) |
| Piattaforme di apprendimento adattivo | Rischio limitato | Art. 50 |
| Chatbot di tutoraggio IA | Rischio limitato | Art. 50(1) |
| Sistema di gestione dell'apprendimento (LMS) | Rischio minimo | — |
Perché l'IA nell'istruzione è particolarmente sensibile
L'IA nell'istruzione colpisce una popolazione particolarmente vulnerabile – bambini e giovani. Il considerando 47 del EU AI Act sottolinea espressamente che i sistemi di IA nell'istruzione possono avere conseguenze significative sulle opportunità future degli individui. Le preoccupazioni principali includono:
- I bias algoritmici possono sistematicamente svantaggiare gli studenti provenienti da determinati contesti socio-economici o etnici
- L'IA di sorveglianza può segnalare in modo sproporzionato gli studenti con disabilità o con ambienti di test non standard
- L'IA per le ammissioni può perpetuare le disuguaglianze storiche se addestrata su dati distorti
- Diritto alla spiegazione: studenti e genitori hanno un legittimo interesse a comprendere come sono state prese le decisioni basate sull'IA
Interazione GDPR e AI Act nelle scuole
L'IA educativa tratta tipicamente dati personali di minori, il che attiva protezioni GDPR rafforzate. Le scuole e le università come deployer devono affrontare doppi obblighi di conformità:
- GDPR art. 8 — Il consenso dei minori richiede l'approvazione dei genitori in molti Stati membri
- GDPR art. 22 — Diritto a non essere sottoposti a un processo decisionale interamente automatizzato
- EU AI Act art. 14 — Supervisione umana obbligatoria per tutta l'IA educativa ad alto rischio
- EU AI Act art. 27 — FRIA obbligatoria quando gli istituti di istruzione pubblici implementano IA ad alto rischio
Obblighi di documentazione
Per fornitori e deployer di IA ad alto rischio nell'istruzione:
- Documentazione tecnica secondo l'Allegato IV – con particolare attenzione ai test sui bias, alla rappresentatività dei dati e alle metriche di equità
- Avviso di trasparenza – Studenti, genitori e insegnanti devono essere informati sull'uso dell'IA nelle decisioni educative (Art. 13 + Art. 26)
- FRIA – Obbligatoria per gli istituti di istruzione pubblici che implementano IA ad alto rischio ai sensi dell'Art. 27
Prossimi passi per la Sua organizzazione
- Inventario – Identifichi tutti gli strumenti di IA utilizzati nell'insegnamento, nella valutazione, nelle ammissioni e nell'amministrazione
- Classificazione – Utilizzi il controllo del rischio gratuito
- Documentazione – Generi la Sua documentazione di conformità