Zum Inhalt springen

EU AI Act Glossar

Die wichtigsten Begriffe der EU KI-Verordnung (Verordnung (EU) 2024/1689) – von Annex III bis Transparenzhinweis. Mit Artikelverweisen.

A

Anbieter (Provider)

Natürliche oder juristische Person, die ein KI-System entwickelt oder entwickeln lässt und es unter eigenem Namen oder eigener Marke in Verkehr bringt oder in Betrieb nimmt.

Artikel: Art. 3 Nr. 3, Art. 16

Annex I

Liste der EU-Harmonisierungsrechtsvorschriften (z.B. MDR, Maschinenverordnung), deren regulierte Produkte bei Einbettung von KI unter den EU AI Act fallen. Frist: August 2027.

Artikel: Art. 6 Abs. 1

Annex III

Liste der 8 Hochrisiko-Anwendungsbereiche: Biometrie, kritische Infrastruktur, Bildung, Beschäftigung, wesentliche Dienste, Strafverfolgung, Migration, Rechtspflege.

Artikel: Art. 6 Abs. 2

Annex IV

Detaillierte Anforderungen an die Technische Dokumentation für Hochrisiko-KI-Systeme. Definiert 13 Pflichtabschnitte.

Artikel: Art. 11

B

Betreiber (Deployer)

Natürliche oder juristische Person, die ein KI-System unter eigener Verantwortung einsetzt – ausgenommen persönliche, nichtberufliche Nutzung.

Artikel: Art. 3 Nr. 4, Art. 26

Biometrische Fernidentifizierung

Identifizierung natürlicher Personen aus der Ferne anhand biometrischer Daten (z.B. Gesichtserkennung). Echtzeit-Fernidentifizierung in öffentlichen Räumen ist grundsätzlich verboten.

Artikel: Art. 5 Abs. 1 lit. d, Annex III Nr. 1

C

CE-Kennzeichnung

Konformitätskennzeichnung, die bestätigt, dass ein Hochrisiko-KI-System alle EU AI Act Anforderungen erfüllt. Muss vor dem Inverkehrbringen angebracht werden.

Artikel: Art. 48

D

Daten-Governance

Anforderungen an Trainings-, Validierungs- und Testdatensätze: Relevanz, Repräsentativität, Fehlerfreiheit und Vollständigkeit. Massnahmen zur Erkennung und Behebung von Bias.

Artikel: Art. 10

E

EU-Datenbank für Hochrisiko-KI

Öffentlich zugängliche EU-Datenbank, in der Anbieter und Betreiber Hochrisiko-KI-Systeme registrieren müssen – vor dem Inverkehrbringen bzw. vor der Inbetriebnahme.

Artikel: Art. 49, Art. 71

F

FRIA (Fundamental Rights Impact Assessment)

Grundrechtliche Folgenabschätzung: Bewertung der Auswirkungen eines Hochrisiko-KI-Systems auf die Grundrechte betroffener Personen. Pflicht für bestimmte Betreiber vor der Inbetriebnahme.

Artikel: Art. 27

G

GPAI (General-Purpose AI)

KI-Modelle mit allgemeinem Verwendungszweck (z.B. Large Language Models), die für verschiedene Aufgaben eingesetzt werden können. Unterliegen besonderen Transparenzpflichten.

Artikel: Art. 3 Nr. 63, Art. 51–56

GPAI mit systemischem Risiko

GPAI-Modelle mit hoher Leistungsfähigkeit (Schwellenwert: 10^25 FLOP), die zusätzliche Pflichten auslösen: Red Teaming, Modellbewertung, Incident Reporting.

Artikel: Art. 51 Abs. 2, Art. 55

H

Hochrisiko-KI-System

KI-System, das in einem der in Annex III aufgeführten Bereiche eingesetzt wird und erhebliche Risiken für Gesundheit, Sicherheit oder Grundrechte birgt. Unterliegt umfassenden Compliance-Pflichten.

Artikel: Art. 6, Annex III

Human Oversight (Menschliche Aufsicht)

Massnahmen, die sicherstellen, dass ein KI-System von natürlichen Personen wirksam überwacht werden kann. Umfasst Human-in-the-Loop, Human-on-the-Loop und Human-in-Command.

Artikel: Art. 14

I

Inverkehrbringen

Die erstmalige Bereitstellung eines KI-Systems auf dem Unionsmarkt. Auslöser für die Pflichten des Anbieters.

Artikel: Art. 3 Nr. 9

K

KI-Büro (AI Office)

Europäisches KI-Büro bei der EU-Kommission, zuständig für die Überwachung von GPAI-Modellen und die Koordination der EU AI Act Durchsetzung.

Artikel: Art. 64

KI-Kompetenz (AI Literacy)

Pflicht zur Sicherstellung, dass Personal, das KI-Systeme betreibt oder beaufsichtigt, über ausreichende KI-Kenntnisse verfügt. Gilt für alle Organisationen, die KI einsetzen.

Artikel: Art. 4

KI-System

Ein maschinengestütztes System, das mit unterschiedlichen Graden von Autonomie betrieben werden kann und das Ausgaben wie Vorhersagen, Empfehlungen oder Entscheidungen erzeugt, die physische oder virtuelle Umgebungen beeinflussen.

Artikel: Art. 3 Nr. 1

Konformitätsbewertung

Verfahren zum Nachweis, dass ein Hochrisiko-KI-System alle Anforderungen des EU AI Act erfüllt. Kann intern oder durch eine Benannte Stelle erfolgen.

Artikel: Art. 43

M

Marktüberwachung

Behördliche Kontrolle, ob KI-Systeme auf dem Markt den EU AI Act Anforderungen entsprechen. Durchgeführt durch nationale Marktüberwachungsbehörden.

Artikel: Art. 74–84

Minimales Risiko

KI-Systeme ohne spezifische Regulierung nach dem EU AI Act. Für sie gelten lediglich freiwillige Verhaltenskodizes. Beispiele: Spam-Filter, KI in Videospielen.

Artikel: Art. 95

R

Risikomanagementsystem

Fortlaufender iterativer Prozess über den gesamten Lebenszyklus eines Hochrisiko-KI-Systems: Risikoidentifikation, -analyse, -bewertung und -minderung.

Artikel: Art. 9

Regulatorische Sandbox

Kontrollierter Rahmen, der von nationalen Behörden eingerichtet wird, um die Entwicklung und Erprobung innovativer KI-Systeme unter behördlicher Aufsicht zu ermöglichen.

Artikel: Art. 57–63

S

Sanktionen

Bussgelder bei Verstössen: bis €35 Mio. / 7% Umsatz (verbotene Praktiken), bis €15 Mio. / 3% Umsatz (Hochrisiko-Pflichten), bis €7,5 Mio. / 1,5% Umsatz (falsche Angaben).

Artikel: Art. 99

Social Scoring

Bewertung natürlicher Personen basierend auf ihrem Sozialverhalten oder persönlichen Eigenschaften durch Behörden. Verbotene KI-Praktik nach Art. 5.

Artikel: Art. 5 Abs. 1 lit. c

T

Technische Dokumentation

Umfassende Dokumentation eines Hochrisiko-KI-Systems nach den 13 Pflichtabschnitten in Annex IV. Muss vor dem Inverkehrbringen erstellt und aktuell gehalten werden.

Artikel: Art. 11, Annex IV

Transparenzhinweis

Pflichtinformation für Nutzer und betroffene Personen über den Einsatz eines KI-Systems: Zweck, Funktionsweise, Einschränkungen und Kontaktdaten.

Artikel: Art. 13 (Anbieter), Art. 26 (Betreiber), Art. 50 (GPAI)

Transparenzpflicht (Art. 50)

Pflicht für Anbieter bestimmter KI-Systeme (Chatbots, Deepfakes, Emotionserkennung), Personen über die Interaktion mit KI zu informieren.

Artikel: Art. 50

V

Verbotene KI-Praktiken

Absolut untersagte KI-Anwendungen: Social Scoring, unterschwellige Manipulation, Ausnutzung von Vulnerabilitäten, ungezieltes Gesichts-Scraping, Emotionserkennung am Arbeitsplatz (mit Ausnahmen).

Artikel: Art. 5

Vulnerable Gruppen

Besonders schutzbedürftige Personengruppen (Minderjährige, ältere Menschen, Menschen mit Behinderung), die bei der Risikoanalyse von KI-Systemen besonders berücksichtigt werden müssen.

Artikel: Art. 5 Abs. 1 lit. b, Art. 27 Abs. 3 lit. c

Vom Glossar zur Compliance

Sie kennen die Begriffe – jetzt erstellen Sie die Dokumente. Ab €149.

Entwürfe generieren
EU AI Act Glossar – Begriffe & Definitionen | AIvunera