Pourquoi le secteur financier est au centre de l'attention
L'Annexe III n° 5(a) du Règlement (UE) 2024/1689 classe explicitement les systèmes d'IA destinés à l'évaluation de la solvabilité des personnes physiques comme étant à haut risque. Seule la détection de la fraude financière est exclue.
De plus, les systèmes d'IA destinés à l'évaluation des risques et à la tarification en assurance vie et maladie relèvent de l'Annexe III n° 5(b).
Systèmes d'IA à haut risque dans le secteur financier
| Application | Annex III | Haut risque ? |
|---|---|---|
| Notation de crédit des personnes physiques | Nr. 5(a) | Oui |
| Évaluation de solvabilité | Nr. 5(a) | Oui |
| Tarification d'assurance (vie/maladie) | Nr. 5(b) | Oui |
| AML/KYC-Screening | — | Non (détection de fraude) |
| Trading algorithmique | — | Non (aucune personne physique concernée) |
| Chatbot de service client | — | Non (Art. 50 obligation de transparence) |
Interaction réglementaire
Les prestataires de services financiers doivent mettre en œuvre l'EU AI Act dans le contexte de la réglementation financière existante :
- MiFID II (Directive 2014/65/UE) – Exigences relatives au trading algorithmique, meilleure exécution pour les systèmes d'IA
- CRD/CRR – Modèles de risque de crédit et notations internes
- Solvency II – IA dans le secteur de l'assurance (évaluation des risques, tarification)
- DORA (Règlement (UE) 2022/2554) – Résilience opérationnelle numérique, gestion des risques TIC
- RGPD – Décisions individuelles automatisées (Art. 22 RGPD) dans les décisions de crédit
Surveillance du marché : la BaFin comme autorité principale
En vertu de l'Art. 74 EU AI Act, les autorités sectorielles sont principalement responsables du secteur financier :
| Pays | Autorité principale | Autorité horizontale |
|---|---|---|
| Allemagne | BaFin | Bundesnetzagentur |
| Autriche | FMA | RTR |
| Pays-Bas | AFM/DNB | ACM |
| France | ACPR/AMF | ARCOM |
Obligation de FRIA pour le scoring de crédit
L'Art. 27(1)(b) EU AI Act oblige explicitement les déployeurs de systèmes d'IA relevant de l'Annexe III n° 5(a) – c'est-à-dire les systèmes de scoring de crédit – à réaliser une évaluation d'impact sur les droits fondamentaux (FRIA).
Cela s'applique indépendamment du fait que le déployeur soit une entité publique ou privée. La FRIA doit analyser spécifiquement les risques de discrimination dans les décisions de crédit.
Obligations de documentation pour l'IA financière
- Documentation technique – Les fournisseurs d'IA de scoring de crédit doivent documenter les 13 sections de l'Annexe IV
- Avis de transparence – Les emprunteurs doivent être informés de l'implication de l'IA dans la décision
- FRIA – Les déployeurs doivent évaluer les risques pour les droits fondamentaux (non-discrimination au titre de l'Art. 21 de la Charte de l'UE)
- Art. 22 RGPD – Droit d'information – Le droit à l'explication des décisions automatisées continue de s'appliquer en parallèle
Prochaines étapes
- Inventaire – Identifiez tous les systèmes d'IA dans le crédit, le scoring et l'assurance
- Vérification des risques – Utilisez la vérification gratuite des risques
- Exigences de la BaFin – Examinez les circulaires actuelles de la BaFin sur l'IA dans les services financiers
- Documentation – Générez des projets de conformité avec un contexte spécifique au secteur
Générez dès maintenant des projets de conformité pour l'IA financière →