EU KI-Verordnung Hochrisiko-KI-Systeme: Vollständiger Klassifizierungsleitfaden
Hochrisiko-KI-Systeme unter der EU KI-Verordnung sind KI-Systeme, die in eine von 8 Kategorien in Anhang III eingestuft werden — Biometrie, kritische Infrastruktur, Bildung, Beschäftigung, wesentliche Dienste (einschließlich Kredit-Scoring und Versicherung), Strafverfolgung, Migration und Justiz — oder KI-Systeme, die Sicherheitskomponenten von Produkten sind, die unter bestehende EU-Produktsicherheitsgesetzgebung in Anhang I fallen. Diese Systeme müssen vor dem 2. August 2026 14 verbindliche Anbieterpflichten nach Art. 9–15 erfüllen, darunter Risikomanagement, Datengouvernanz, technische Dokumentation und Konformitätsbewertung, mit Bußgeldern von bis zu 15 Mio. EUR oder 3 % des globalen Jahresumsatzes bei Nichteinhaltung (Art. 99). Die Europäische Kommission schätzt, dass 15 % aller KI-Systeme in der EU nach diesen Bestimmungen als hochriskant eingestuft werden — etwa 300.000 Systeme.
Dieser Leitfaden bietet die definitive Aufschlüsselung jeder Hochrisiko-Kategorie, erklärt beide Klassifizierungspfade, detailliert alle Pflichten und enthält ein Entscheidungsflussdiagramm, um festzustellen, ob Ihr KI-System qualifiziert.
Nehmen Sie die kostenlose KI-Act-Readiness-Bewertung vor, um Ihre KI-Systeme interaktiv zu klassifizieren.
Zwei Pfade zur Hochrisiko-Klassifizierung (Art. 6)
Die KI-Verordnung definiert Hochrisiko-KI-Systeme durch zwei verschiedene Pfade unter Artikel 6.
Pfad 1: Produktsicherheitsgesetzgebung (Art. 6(1), Anhang I)
KI-Systeme, die Sicherheitskomponenten von Produkten sind, die unter EU-Harmonisierungsgesetzgebung in Anhang I fallen — darunter Maschinen, Spielzeug, Medizinprodukte, Zivilluftfahrt, Kraftfahrzeuge, Meeresausrüstung, Bahnsysteme und persönliche Schutzausrüstung. Diese KI-Systeme müssen die Konformitätsbewertung nach der einschlägigen Produktgesetzgebung durchlaufen.
Beispiel: Ein KI-System, das die Bremsung in autonomen Fahrzeugen steuert, ist eine Sicherheitskomponente unter der Kraftfahrzeugverordnung.
Pfad 2: Eigenständig hochriskant (Art. 6(2), Anhang III)
KI-Systeme, die in Anhang III über 8 Verwendungskategorien aufgeführt sind. Dies sind eigenständige Hochrisiko-Klassifizierungen basierend auf dem vorgesehenen Verwendungszweck des KI-Systems.
Die Art.-6(3)-Ausnahme
Ein in Anhang III aufgeführtes KI-System ist nicht hochriskant, wenn es:
- Kein erhebliches Risiko einer Schädigung von Gesundheit, Sicherheit oder Grundrechten darstellt
- Das Ergebnis der Entscheidungsfindung nicht wesentlich beeinflusst
- Eine enge verfahrenstechnische Aufgabe ausführen soll
- Das Ergebnis einer zuvor abgeschlossenen menschlichen Tätigkeit verbessern soll
- Entscheidungsmuster erkennen soll, ohne die menschliche Bewertung zu ersetzen
Wichtig: Anbieter, die diese Ausnahme geltend machen, müssen ihre Bewertung vor der Markteinführung dokumentieren und die zuständige nationale Behörde benachrichtigen.
Die 8 Anhang-III-Kategorien
Kategorie 1: Biometrische Identifizierung und Kategorisierung
Betroffene Systeme:
- Systeme zur biometrischen Fernidentifizierung (Gesichtserkennung zur Identifizierung)
- Biometrische Kategorisierungssysteme, die Personen nach sensiblen Merkmalen klassifizieren
- Emotionserkennungssysteme (bei Verwendung in Kontexten, die nicht unter Art.-5-Verbote fallen)
Reale Beispiele:
- Flughafengesichtserkennung zur Identitätsverifizierung
- Emotionsüberwachungssysteme für Mitarbeiter (eingeschränkte Kontexte)
- Altersschätzsysteme am Point of Sale
Wichtige Unterscheidung: Biometrische Echtzeit-Identifizierung in öffentlichen Räumen für Strafverfolgungszwecke ist nach Art. 5 verboten, außer unter engen Ausnahmen (Terrorismus, vermisste Kinder, spezifische Straftaten mit richterlicher Genehmigung).
Statistik: Die Europäische Biometrie-Vereinigung schätzt, dass über 12.000 biometrische KI-Systeme in der EU betrieben werden, von denen etwa 3.000 wahrscheinlich als hochriskant eingestuft werden.
Kategorie 2: Verwaltung kritischer Infrastruktur
Betroffene Systeme:
- KI-Systeme, die als Sicherheitskomponenten im Management und Betrieb kritischer digitaler Infrastruktur, Straßenverkehr sowie Wasser-/Gas-/Heizungs-/Stromversorgung eingesetzt werden
Reale Beispiele:
- KI zur Steuerung der Lastverteilung im Stromnetz
- Verkehrsmanagement-KI zur Optimierung von Ampelanlagen
- KI-Systeme zur Überwachung von Wasseraufbereitungsprozessen
- Predictive-Maintenance-KI für Energieinfrastruktur
Regulatorische Überschneidung: Diese Systeme fallen oft auch unter NIS2-Anforderungen für kritische Infrastruktur und DORA für Finanzmarktinfrastruktur.
Kategorie 3: Bildung und Berufsausbildung
Betroffene Systeme:
- KI, die den Zugang zu oder die Zuweisung an Bildungseinrichtungen bestimmt
- KI zur Bewertung von Lernergebnissen
- KI zur Beurteilung angemessener Bildungsniveaus
- KI zur Überwachung unzulässigen Verhaltens bei Prüfungen (Proctoring)
Reale Beispiele:
- KI zur Vorauswahl von Universitätsbewerbern
- Automatisierte Aufsatzbewertungssysteme
- KI-gestütztes Prüfungs-Proctoring zur Betrugserkennung
- Systeme zur Vorhersage von Schülerleistungen
Schlüsselstatistik: Eine UNESCO-Studie von 2025 ergab, dass 47 % der europäischen Universitäten mindestens ein KI-System verwenden, das unter Anhang III als hochriskant eingestuft würde.
Kategorie 4: Beschäftigung und Arbeitnehmerführung
Betroffene Systeme:
- KI für Rekrutierung und Auswahl (Lebenslaufscreening, Vorstellungsgesprächsbewertung)
- KI, die Entscheidungen über Beförderung, Kündigung oder Aufgabenzuweisung trifft
- KI zur Überwachung und Bewertung von Mitarbeiterleistung und -verhalten
- KI-Systeme in Arbeitsverhältnissen
Reale Beispiele:
- Tools zum Filtern von Lebensläufen
- KI-gestützte Video-Interviewbewertung
- Mitarbeiter-Performance-Analytik
- KI-optimierte Personalplanung
- KI-gesteuerte Produktivitätsüberwachung
Schlüsselstatistik: LinkedIn berichtet, dass 67 % der europäischen Personalverantwortlichen KI-gestützte Tools verwenden, von denen die meisten die Art. 9–15-Compliance erfordern werden.
Kategorie 5: Zugang zu wesentlichen Dienstleistungen
Betroffene Systeme:
- KI zur Beurteilung der Anspruchsberechtigung auf öffentliche Unterstützungsleistungen
- KI im Kredit-Scoring und der Kreditwürdigkeitsbewertung
- KI für Risikobewertung und Preisgestaltung in Lebens- und Krankenversicherungen
- KI zur Priorisierung von Notfalldienstaufgaben
Reale Beispiele:
- Kredit-Scoring-Modelle von Banken
- Risikopreisgestaltungsalgorithmen für Versicherungen
- Berechtigungsbestimmung für staatliche Leistungen
- KI zur Priorisierung von Notrufen
Dies ist die breiteste Kategorie für Finanzdienstleister. Jede Bank, jeder Versicherer und jedes Fintech, das KI für Kredit- oder Preisgestaltungsentscheidungen nutzt, muss compliant sein.
Schlüsselstatistik: Die EBA schätzt, dass über 85 % der EU-Banken KI in der Kreditrisikobeurteilung einsetzen, was diese zur nach Volumen am stärksten betroffenen Kategorie macht.
Kategorie 6: Strafverfolgung
Betroffene Systeme:
- KI zur Beurteilung des Risikos, dass eine natürliche Person eine Straftat begeht oder rückfällig wird
- KI als Lügendetektor oder ähnliche Tools
- KI zur Beurteilung der Zuverlässigkeit von Beweisen
- KI zur Bewertung des Risikos, dass eine natürliche Person Opfer wird
Wichtig: Predictive Policing, das ausschließlich auf Profiling basiert, ist nach Art. 5 verboten. KI-Tools der Strafverfolgung für spezifische investigative Zwecke können hochriskant statt verboten sein.
Kategorie 7: Migration, Asyl und Grenzkontrolle
Betroffene Systeme:
- KI als Lügendetektor oder zur Emotionserkennung an Grenzen
- KI zur Bewertung der Risiken, die von Personen an Grenzübergängen ausgehen
- KI zur Unterstützung der Prüfung von Asyl- oder Visaanträgen
- KI zur Identitätsverifizierung in Migrationskontexten
Kategorie 8: Justizverwaltung und demokratische Prozesse
Betroffene Systeme:
- KI zur Unterstützung von Justizbehörden bei der Recherche und Interpretation von Fakten und Recht
- KI zur Unterstützung von Justizbehörden bei der Anwendung des Rechts auf konkrete Sachverhalte
- KI zur Beeinflussung des Ergebnisses von Wahlen oder Volksabstimmungen
Hinweis: KI-Systeme rein für administrative Aufgaben (Terminplanung, Dokumentenverwaltung) sind nicht erfasst.
Ist Ihr KI-System hochriskant? Entscheidungsflussdiagramm
START: Sie entwickeln/betreiben ein KI-System in der EU
│
▼
Ist es eine Sicherheitskomponente eines Anhang-I-Produkts?
│
├── JA → HOCHRISKANT (Pfad 1)
│
└── NEIN
│
▼
Fällt es in eine der 8 Anhang-III-Kategorien?
│
├── NEIN → Nicht hochriskant (Art. 50 auf Transparenz prüfen)
│
└── JA
│
▼
Gilt die Art.-6(3)-Ausnahme?
(enge Verfahrensaufgabe, kein erhebliches Risiko,
kein wesentlicher Einfluss auf Entscheidungen)
│
├── JA → Nicht hochriskant (dokumentieren & Behörde benachrichtigen)
│
└── NEIN → HOCHRISKANT (Pfad 2)
→ Muss Art. 9-15 erfüllen
→ Konformitätsbewertung erforderlich (Art. 43)
→ Registrierung in EU-Datenbank (Art. 49)
Anbieterpflichten für Hochrisiko-KI (Art. 9–15)
| Pflicht | Artikel | Zusammenfassung |
|---|---|---|
| Risikomanagement | Art. 9 | Kontinuierliche Risikoidentifizierung, -analyse, -bewertung, -minderung |
| Datengouvernanz | Art. 10 | Trainingsdatenqualität, Repräsentativität, Bias-Prüfung |
| Technische Dokumentation | Art. 11 | Anhang-IV-Dokumentation vor Markteinführung |
| Aufzeichnungen | Art. 12 | Automatische Ereignisprotokollierung, 6 Monate Mindestspeicherung |
| Transparenz | Art. 13 | Betriebsanweisungen für Betreiber bereitgestellt |
| Menschliche Aufsicht | Art. 14 | Design für effektive menschliche Aufsicht und Eingriff |
| Genauigkeit & Robustheit | Art. 15 | Angemessene Genauigkeitsniveaus, Widerstandsfähigkeit gegen Fehler und Angriffe |
| Qualitätsmanagement | Art. 17 | Qualitätsmanagementsystem für Compliance-Prozesse |
| Konformitätsbewertung | Art. 43 | Selbstbewertung (Anhang VI) oder Drittpartei (Anhang VII) |
| EU-Konformitätserklärung | Art. 47 | Formelle Erklärung gemäß Anhang V |
| CE-Kennzeichnung | Art. 48 | CE-Kennzeichnung am System oder an der Dokumentation anbringen |
| Registrierung | Art. 49 | Registrierung in EU-Datenbank vor Markteinführung |
| Post-Market-Monitoring | Art. 72 | Angemessenes Monitoring-System für eingesetzte Systeme |
| Vorfallsmeldung | Art. 73 | Schwerwiegende Vorfälle innerhalb von 15 Tagen melden |
Betreiberpflichten (Art. 26)
Betreiber (Nutzer) von Hochrisiko-KI haben ebenfalls Pflichten:
- System gemäß Betriebsanweisungen verwenden
- Kompetente menschliche Aufsichtspersonen zuweisen
- Systembetrieb überwachen und Fehlfunktionen melden
- Datenschutz-Folgenabschätzung durchführen, wo anwendbar (Verknüpfung mit DSGVO Art. 35)
- Betroffene Personen darüber informieren, dass sie einer Hochrisiko-KI-Entscheidungsfindung unterliegen
Häufig gestellte Fragen
Wie erkenne ich, ob mein KI-System hochriskant ist?
Folgen Sie dem obigen Entscheidungsflussdiagramm. Prüfen Sie zuerst, ob es eine Sicherheitskomponente eines Anhang-I-Produkts ist. Dann prüfen Sie, ob es in eine der 8 Anhang-III-Kategorien fällt. Falls ja, prüfen Sie, ob die Art.-6(3)-Ausnahme gilt. Im Zweifelsfall als hochriskant einzustufen — die Konsequenzen einer Unterklassifizierung sind weit schwerwiegender als die Kosten der Compliance.
Was, wenn mein KI-System mehrere Anhang-III-Kategorien überspannt?
Es muss nur einmal als hochriskant eingestuft werden. Die Pflichten sind dieselben, unabhängig davon, welche Kategorie die Klassifizierung auslöst. Ihr Risikomanagementsystem sollte jedoch Risiken aus allen anwendbaren Kategorien adressieren.
Kann mein KI-System nach dem Deployment hochriskant werden?
Ja. Wenn Sie den vorgesehenen Verwendungszweck oder den Einsatzkontext eines KI-Systems so ändern, dass es nun unter Anhang III fällt, wird es hochriskant und muss alle Pflichten erfüllen. Deshalb sind laufende Überwachung und Klassifizierungsüberprüfung wichtig.
Was ist der Unterschied zwischen hochriskant und verbotener KI?
Verbotene KI (Art. 5) darf überhaupt nicht verwendet werden — sie ist vollständig verboten. Hochrisiko-KI (Art. 6, Anhang III) darf verwendet werden, muss aber strenge Compliance-Anforderungen erfüllen. Die Grenze kann fließend sein: Predictive Policing ausschließlich auf Basis von Profiling ist verboten, aber KI, die spezifische strafverfolgungsrelevante Ermittlungen unterstützt, ist hochriskant.
Wie viel kostet die Hochrisiko-KI-Compliance pro System?
Die Europäische Kommission schätzt 6.000–7.500 EUR für die Einrichtung des Risikomanagementsystems und 3.000–7.500 EUR für die Konformitätsbewertung pro Hochrisiko-KI-System. Die gesamten Compliance-Kosten im ersten Jahr liegen typischerweise zwischen 20.000–45.000 EUR pro System, obwohl Automatisierung durch Plattformen wie Matproof dies um 40–70 % reduzieren kann.