Aller au contenu

EU AI Act dans le secteur financier

Évaluation de solvabilité, tarification d'assurance et détection de la fraude – le secteur financier est particulièrement concerné par l'EU AI Act. L'Annexe III n° 5(a) classe explicitement le scoring de crédit par IA comme système à haut risque.

Mis à jour: Février 202610 min de lecture

Pourquoi le secteur financier est au centre de l'attention

L'Annexe III n° 5(a) du Règlement (UE) 2024/1689 classe explicitement les systèmes d'IA destinés à l'évaluation de la solvabilité des personnes physiques comme étant à haut risque. Seule la détection de la fraude financière est exclue.

De plus, les systèmes d'IA destinés à l'évaluation des risques et à la tarification en assurance vie et maladie relèvent de l'Annexe III n° 5(b).

Systèmes d'IA à haut risque dans le secteur financier

ApplicationAnnex IIIHaut risque ?
Notation de crédit des personnes physiquesNr. 5(a)Oui
Évaluation de solvabilitéNr. 5(a)Oui
Tarification d'assurance (vie/maladie)Nr. 5(b)Oui
AML/KYC-ScreeningNon (détection de fraude)
Trading algorithmiqueNon (aucune personne physique concernée)
Chatbot de service clientNon (Art. 50 obligation de transparence)

Interaction réglementaire

Les prestataires de services financiers doivent mettre en œuvre l'EU AI Act dans le contexte de la réglementation financière existante :

  • MiFID II (Directive 2014/65/UE) – Exigences relatives au trading algorithmique, meilleure exécution pour les systèmes d'IA
  • CRD/CRR – Modèles de risque de crédit et notations internes
  • Solvency II – IA dans le secteur de l'assurance (évaluation des risques, tarification)
  • DORA (Règlement (UE) 2022/2554) – Résilience opérationnelle numérique, gestion des risques TIC
  • RGPD – Décisions individuelles automatisées (Art. 22 RGPD) dans les décisions de crédit

Surveillance du marché : la BaFin comme autorité principale

En vertu de l'Art. 74 EU AI Act, les autorités sectorielles sont principalement responsables du secteur financier :

PaysAutorité principaleAutorité horizontale
AllemagneBaFinBundesnetzagentur
AutricheFMARTR
Pays-BasAFM/DNBACM
FranceACPR/AMFARCOM

Obligation de FRIA pour le scoring de crédit

L'Art. 27(1)(b) EU AI Act oblige explicitement les déployeurs de systèmes d'IA relevant de l'Annexe III n° 5(a) – c'est-à-dire les systèmes de scoring de crédit – à réaliser une évaluation d'impact sur les droits fondamentaux (FRIA).

Cela s'applique indépendamment du fait que le déployeur soit une entité publique ou privée. La FRIA doit analyser spécifiquement les risques de discrimination dans les décisions de crédit.

Obligations de documentation pour l'IA financière

  • Documentation technique – Les fournisseurs d'IA de scoring de crédit doivent documenter les 13 sections de l'Annexe IV
  • Avis de transparence – Les emprunteurs doivent être informés de l'implication de l'IA dans la décision
  • FRIA – Les déployeurs doivent évaluer les risques pour les droits fondamentaux (non-discrimination au titre de l'Art. 21 de la Charte de l'UE)
  • Art. 22 RGPD – Droit d'information – Le droit à l'explication des décisions automatisées continue de s'appliquer en parallèle

Prochaines étapes

  1. Inventaire – Identifiez tous les systèmes d'IA dans le crédit, le scoring et l'assurance
  2. Vérification des risques – Utilisez la vérification gratuite des risques
  3. Exigences de la BaFin – Examinez les circulaires actuelles de la BaFin sur l'IA dans les services financiers
  4. Documentation Générez des projets de conformité avec un contexte spécifique au secteur

Générez dès maintenant des projets de conformité pour l'IA financière →

Brouillons de conformité

FRIA, documentation technique et avis de transparence – brouillons générés par IA en quelques minutes.

Générer les brouillons

Prêt pour la conformité EU AI Act ?

Documents de conformité générés par IA comme base de travail solide pour vous ou vos avocats.

EU AI Act dans le secteur financier | AIvunera