EU AI Act Glossar
Die wichtigsten Begriffe der EU KI-Verordnung (Verordnung (EU) 2024/1689) – von Annex III bis Transparenzhinweis. Mit Artikelverweisen.
A
Anbieter (Provider)
Natürliche oder juristische Person, die ein KI-System entwickelt oder entwickeln lässt und es unter eigenem Namen oder eigener Marke in Verkehr bringt oder in Betrieb nimmt.
Artikel: Art. 3 Nr. 3, Art. 16
Annex I
Liste der EU-Harmonisierungsrechtsvorschriften (z.B. MDR, Maschinenverordnung), deren regulierte Produkte bei Einbettung von KI unter den EU AI Act fallen. Frist: August 2027.
Artikel: Art. 6 Abs. 1
Annex III
Liste der 8 Hochrisiko-Anwendungsbereiche: Biometrie, kritische Infrastruktur, Bildung, Beschäftigung, wesentliche Dienste, Strafverfolgung, Migration, Rechtspflege.
Artikel: Art. 6 Abs. 2
Annex IV
Detaillierte Anforderungen an die Technische Dokumentation für Hochrisiko-KI-Systeme. Definiert 13 Pflichtabschnitte.
Artikel: Art. 11
B
Betreiber (Deployer)
Natürliche oder juristische Person, die ein KI-System unter eigener Verantwortung einsetzt – ausgenommen persönliche, nichtberufliche Nutzung.
Artikel: Art. 3 Nr. 4, Art. 26
Biometrische Fernidentifizierung
Identifizierung natürlicher Personen aus der Ferne anhand biometrischer Daten (z.B. Gesichtserkennung). Echtzeit-Fernidentifizierung in öffentlichen Räumen ist grundsätzlich verboten.
Artikel: Art. 5 Abs. 1 lit. d, Annex III Nr. 1
C
CE-Kennzeichnung
Konformitätskennzeichnung, die bestätigt, dass ein Hochrisiko-KI-System alle EU AI Act Anforderungen erfüllt. Muss vor dem Inverkehrbringen angebracht werden.
Artikel: Art. 48
D
Daten-Governance
Anforderungen an Trainings-, Validierungs- und Testdatensätze: Relevanz, Repräsentativität, Fehlerfreiheit und Vollständigkeit. Massnahmen zur Erkennung und Behebung von Bias.
Artikel: Art. 10
E
EU-Datenbank für Hochrisiko-KI
Öffentlich zugängliche EU-Datenbank, in der Anbieter und Betreiber Hochrisiko-KI-Systeme registrieren müssen – vor dem Inverkehrbringen bzw. vor der Inbetriebnahme.
Artikel: Art. 49, Art. 71
F
FRIA (Fundamental Rights Impact Assessment)
Grundrechtliche Folgenabschätzung: Bewertung der Auswirkungen eines Hochrisiko-KI-Systems auf die Grundrechte betroffener Personen. Pflicht für bestimmte Betreiber vor der Inbetriebnahme.
Artikel: Art. 27
G
GPAI (General-Purpose AI)
KI-Modelle mit allgemeinem Verwendungszweck (z.B. Large Language Models), die für verschiedene Aufgaben eingesetzt werden können. Unterliegen besonderen Transparenzpflichten.
Artikel: Art. 3 Nr. 63, Art. 51–56
GPAI mit systemischem Risiko
GPAI-Modelle mit hoher Leistungsfähigkeit (Schwellenwert: 10^25 FLOP), die zusätzliche Pflichten auslösen: Red Teaming, Modellbewertung, Incident Reporting.
Artikel: Art. 51 Abs. 2, Art. 55
H
Hochrisiko-KI-System
KI-System, das in einem der in Annex III aufgeführten Bereiche eingesetzt wird und erhebliche Risiken für Gesundheit, Sicherheit oder Grundrechte birgt. Unterliegt umfassenden Compliance-Pflichten.
Artikel: Art. 6, Annex III
Human Oversight (Menschliche Aufsicht)
Massnahmen, die sicherstellen, dass ein KI-System von natürlichen Personen wirksam überwacht werden kann. Umfasst Human-in-the-Loop, Human-on-the-Loop und Human-in-Command.
Artikel: Art. 14
I
Inverkehrbringen
Die erstmalige Bereitstellung eines KI-Systems auf dem Unionsmarkt. Auslöser für die Pflichten des Anbieters.
Artikel: Art. 3 Nr. 9
K
KI-Büro (AI Office)
Europäisches KI-Büro bei der EU-Kommission, zuständig für die Überwachung von GPAI-Modellen und die Koordination der EU AI Act Durchsetzung.
Artikel: Art. 64
KI-Kompetenz (AI Literacy)
Pflicht zur Sicherstellung, dass Personal, das KI-Systeme betreibt oder beaufsichtigt, über ausreichende KI-Kenntnisse verfügt. Gilt für alle Organisationen, die KI einsetzen.
Artikel: Art. 4
KI-System
Ein maschinengestütztes System, das mit unterschiedlichen Graden von Autonomie betrieben werden kann und das Ausgaben wie Vorhersagen, Empfehlungen oder Entscheidungen erzeugt, die physische oder virtuelle Umgebungen beeinflussen.
Artikel: Art. 3 Nr. 1
Konformitätsbewertung
Verfahren zum Nachweis, dass ein Hochrisiko-KI-System alle Anforderungen des EU AI Act erfüllt. Kann intern oder durch eine Benannte Stelle erfolgen.
Artikel: Art. 43
M
Marktüberwachung
Behördliche Kontrolle, ob KI-Systeme auf dem Markt den EU AI Act Anforderungen entsprechen. Durchgeführt durch nationale Marktüberwachungsbehörden.
Artikel: Art. 74–84
Minimales Risiko
KI-Systeme ohne spezifische Regulierung nach dem EU AI Act. Für sie gelten lediglich freiwillige Verhaltenskodizes. Beispiele: Spam-Filter, KI in Videospielen.
Artikel: Art. 95
R
Risikomanagementsystem
Fortlaufender iterativer Prozess über den gesamten Lebenszyklus eines Hochrisiko-KI-Systems: Risikoidentifikation, -analyse, -bewertung und -minderung.
Artikel: Art. 9
Regulatorische Sandbox
Kontrollierter Rahmen, der von nationalen Behörden eingerichtet wird, um die Entwicklung und Erprobung innovativer KI-Systeme unter behördlicher Aufsicht zu ermöglichen.
Artikel: Art. 57–63
S
Sanktionen
Bussgelder bei Verstössen: bis €35 Mio. / 7% Umsatz (verbotene Praktiken), bis €15 Mio. / 3% Umsatz (Hochrisiko-Pflichten), bis €7,5 Mio. / 1,5% Umsatz (falsche Angaben).
Artikel: Art. 99
T
Technische Dokumentation
Umfassende Dokumentation eines Hochrisiko-KI-Systems nach den 13 Pflichtabschnitten in Annex IV. Muss vor dem Inverkehrbringen erstellt und aktuell gehalten werden.
Artikel: Art. 11, Annex IV
Transparenzhinweis
Pflichtinformation für Nutzer und betroffene Personen über den Einsatz eines KI-Systems: Zweck, Funktionsweise, Einschränkungen und Kontaktdaten.
Artikel: Art. 13 (Anbieter), Art. 26 (Betreiber), Art. 50 (GPAI)
Transparenzpflicht (Art. 50)
Pflicht für Anbieter bestimmter KI-Systeme (Chatbots, Deepfakes, Emotionserkennung), Personen über die Interaktion mit KI zu informieren.
Artikel: Art. 50
V
Verbotene KI-Praktiken
Absolut untersagte KI-Anwendungen: Social Scoring, unterschwellige Manipulation, Ausnutzung von Vulnerabilitäten, ungezieltes Gesichts-Scraping, Emotionserkennung am Arbeitsplatz (mit Ausnahmen).
Artikel: Art. 5
Vulnerable Gruppen
Besonders schutzbedürftige Personengruppen (Minderjährige, ältere Menschen, Menschen mit Behinderung), die bei der Risikoanalyse von KI-Systemen besonders berücksichtigt werden müssen.
Artikel: Art. 5 Abs. 1 lit. b, Art. 27 Abs. 3 lit. c
Vom Glossar zur Compliance
Sie kennen die Begriffe – jetzt erstellen Sie die Dokumente. Ab €149.
Entwürfe generieren
Social Scoring
Bewertung natürlicher Personen basierend auf ihrem Sozialverhalten oder persönlichen Eigenschaften durch Behörden. Verbotene KI-Praktik nach Art. 5.
Artikel: Art. 5 Abs. 1 lit. c