EU AI-verordening hoog-risico AI-systemen: Volledige classificatiegids
Hoog-risico AI-systemen onder de EU AI-verordening zijn AI-systemen die zijn geclassificeerd in één van de 8 categorieën in Bijlage III — met biometrie, kritieke infrastructuur, onderwijs, werkgelegenheid, essentiële diensten (inclusief kredietscoring en verzekeringen), rechtshandhaving, migratie en justitie — of AI-systemen die veiligheidscomponenten zijn van producten die worden gereguleerd door bestaande EU-productveiligheidswetgeving die is opgesomd in Bijlage I. Deze systemen moeten vóór 2 augustus 2026 voldoen aan 14 verplichte aanbiedersverplichtingen op grond van Art. 9–15, waaronder risicobeheer, datagovernance, technische documentatie en conformiteitsbeoordeling, met boetes van maximaal 15 miljoen euro of 3% van de wereldwijde jaaromzet bij niet-naleving (Art. 99). De Europese Commissie schat dat 15% van alle AI-systemen in de EU zal worden geclassificeerd als hoog-risico op grond van deze bepalingen — ongeveer 300.000 systemen.
Deze gids biedt de definitieve uitsplitsing van elke hoog-risico categorie, legt beide classificatiepaden uit, geeft details over alle verplichtingen en bevat een beslissingsstroomschema om te bepalen of uw AI-systeem kwalificeert.
Doe de gratis AI Act-gereedheidstoets om uw AI-systemen interactief te classificeren.
Twee paden naar hoog-risico classificatie (Art. 6)
De AI-verordening definieert hoog-risico AI-systemen via twee verschillende paden op grond van Artikel 6.
Pad 1: Productveiligheidswetgeving (Art. 6(1), Bijlage I)
AI-systemen die veiligheidscomponenten zijn van producten die vallen onder EU-harmonisatiewetgeving die is opgesomd in Bijlage I — waaronder machines, speelgoed, medische hulpmiddelen, burgerluchtvaart, motorvoertuigen, maritieme uitrusting, spoorwegsystemen en persoonlijke beschermingsuitrusting. Deze AI-systemen moeten een conformiteitsbeoordeling ondergaan op grond van de relevante productwetgeving.
Voorbeeld: Een AI-systeem dat het remmen in autonome voertuigen bestuurt, is een veiligheidscomponent op grond van de Motorvoertuigenverordening.
Pad 2: Zelfstandig hoog-risico (Art. 6(2), Bijlage III)
AI-systemen die zijn opgesomd in Bijlage III in 8 gebruikscategorieën. Dit zijn zelfstandige hoog-risico classificaties op basis van het beoogde doel van het AI-systeem.
De Art. 6(3)-uitzondering
Een AI-systeem dat is opgesomd in Bijlage III is niet hoog-risico als het:
- Geen significant risico op schade aan gezondheid, veiligheid of grondrechten vormt
- De uitkomst van besluitvorming niet wezenlijk beïnvloedt
- Bedoeld is om een nauwe procedurele taak uit te voeren
- Bedoeld is om het resultaat van een eerder voltooide menselijke activiteit te verbeteren
- Bedoeld is om besluitvormingspatronen te detecteren zonder de menselijke beoordeling te vervangen
Belangrijk: Aanbieders die een beroep doen op deze uitzondering, moeten hun beoordeling documenteren voordat het systeem op de markt wordt gebracht en de relevante nationale bevoegde autoriteit informeren.
De 8 Bijlage III-categorieën
Categorie 1: Biometrische identificatie en categorisering
Betreffende systemen:
- Systemen voor biometrische identificatie op afstand (gezichtsherkenning voor identificatie)
- Biometrische categoriseringssystemen die personen classificeren op gevoelige kenmerken
- Emotieherkenningssystemen (bij gebruik in contexten die niet vallen onder Art. 5-verboden)
Praktijkvoorbeelden:
- Gezichtsherkenning op luchthavens voor identiteitsverificatie
- Emotiemonitoringsystemen voor werknemers (beperkte contexten)
- Leeftijdsschattingssystemen op het verkooppunt
Belangrijk onderscheid: Biometrische realtime-identificatie in openbare ruimten voor rechtshandhavingsdoeleinden is verboden op grond van Art. 5, behalve in nauwe uitzonderingen (terrorisme, vermiste kinderen, specifieke strafbare feiten met rechterlijke toestemming).
Statistiek: De Europese Biometrieassociatie schat dat meer dan 12.000 biometrische AI-systemen actief zijn in de EU, waarvan ongeveer 3.000 waarschijnlijk als hoog-risico worden geclassificeerd.
Categorie 2: Beheer van kritieke infrastructuur
Betreffende systemen:
- AI-systemen die worden gebruikt als veiligheidscomponenten bij het beheer en de exploitatie van kritieke digitale infrastructuur, wegverkeer en water-/gas-/warmte-/elektriciteitsvoorziening
Praktijkvoorbeelden:
- AI die de belastingverdeling van het elektriciteitsnet bestuurt
- Verkeersbeheers-AI die de signaalcoördinatie optimaliseert
- AI-systemen die waterbehandelingsprocessen monitoren
- Predictief onderhoud-AI voor energieinfrastructuur
Regelgevingsoverlapping: Deze systemen vallen ook vaak onder NIS2-eisen voor kritieke infrastructuur en DORA voor financiëlemarktinfrastructuur.
Categorie 3: Onderwijs en beroepsopleiding
Betreffende systemen:
- AI die toegang tot of plaatsing bij onderwijsinstellingen bepaalt
- AI die leerresultaten beoordeelt
- AI die passende onderwijsniveaus beoordeelt
- AI die verboden gedrag tijdens examens monitort (proctoring)
Praktijkvoorbeelden:
- AI voor preselectie van universiteitsaanvragen
- Geautomatiseerde systemen voor het beoordelen van opstellen
- AI-gestuurd examen-proctoring voor het detecteren van fraude
- Systemen voor het voorspellen van studentenprestaties
Kernstatistiek: Een UNESCO-studie uit 2025 toonde aan dat 47% van de Europese universiteiten ten minste één AI-systeem gebruikt dat als hoog-risico zou worden geclassificeerd onder Bijlage III.
Categorie 4: Werkgelegenheid en werknemersbeheer
Betreffende systemen:
- AI voor werving en selectie (cv-screening, beoordelingsinterviews)
- AI die beslissingen neemt over promotie, ontslag of taakverdeling
- AI die de prestaties en het gedrag van werknemers monitort en evalueert
- AI-systemen in arbeidsrelaties
Praktijkvoorbeelden:
- Tools voor het filteren van sollicitaties
- AI-gestuurde beoordeling van video-interviews
- Prestatieanalyse van werknemers
- AI-optimalisatie van personeelsplanning
- AI-gestuurde productiviteitsmonitoring
Kernstatistiek: LinkedIn meldt dat 67% van de Europese aanwervingsmanagers AI-ondersteunde tools gebruiken, waarvan de meerderheid Art. 9–15-naleving zal vereisen.
Categorie 5: Toegang tot essentiële diensten
Betreffende systemen:
- AI die de geschiktheid voor publieke bijstand beoordeelt
- AI die wordt gebruikt bij kredietscoring en kredietwaardigheidsbeoordelingen
- AI voor risicobeoordeling en prijsstelling bij levens- en ziektekostenverzekeringen
- AI voor prioritering van noodhulpverlening
Praktijkvoorbeelden:
- Bankkredietscoringsmodellen
- Risicobeoordelingsalgoritmen voor verzekeringen
- Bepaling van geschiktheid voor overheidsuitkeringen
- AI voor prioritering van noodhulpverlening
Dit is de breedste categorie voor financiële diensten. Elke bank, verzekeraar en fintech die AI gebruikt voor krediet- of prijsbeslissingen, moet voldoen.
Kernstatistiek: De EBA schat dat meer dan 85% van de EU-banken AI gebruikt bij kredietrisicobeoordeling, waardoor dit de meest getroffen categorie qua volume is.
Categorie 6: Rechtshandhaving
Betreffende systemen:
- AI die het risico beoordeelt dat een natuurlijk persoon een strafbaar feit pleegt of recidiveert
- AI die wordt gebruikt als leugendetector of soortgelijke hulpmiddelen
- AI die de betrouwbaarheid van bewijsmateriaal evalueert
- AI die het risico beoordeelt dat een natuurlijk persoon slachtoffer wordt
Belangrijk: Voorspellend politiewerk gebaseerd uitsluitend op profilering is verboden op grond van Art. 5. AI-hulpmiddelen die worden gebruikt door rechtshandhaving voor specifieke onderzoeksdoeleinden kunnen hoog-risico zijn in plaats van verboden.
Categorie 7: Migratie, asiel en grenscontrole
Betreffende systemen:
- AI die wordt gebruikt als leugendetector of voor emotiedetectie aan grenzen
- AI die risico's beoordeelt die door personen bij grensovergangen worden gesteld
- AI die helpt bij het onderzoeken van asiel- of visumverzoeken
- AI die wordt gebruikt voor identiteitsverificatie in migratiecontexten
Categorie 8: Rechtsbedeling en democratische processen
Betreffende systemen:
- AI die gerechtelijke autoriteiten helpt bij het onderzoeken en interpreteren van feiten en recht
- AI die gerechtelijke autoriteiten helpt bij het toepassen van het recht op concrete feiten
- AI die wordt gebruikt om de uitkomst van verkiezingen of referenda te beïnvloeden
Opmerking: AI-systemen puur voor administratieve taken (planning, documentbeheer) vallen er niet onder.
Is uw AI-systeem hoog-risico? Beslissingsstroomschema
START: U ontwikkelt/gebruikt een AI-systeem in de EU
│
▼
Is het een veiligheidscomponent van een Bijlage I-product?
│
├── JA → HOOG-RISICO (Pad 1)
│
└── NEE
│
▼
Valt het in één van de 8 Bijlage III-categorieën?
│
├── NEE → Niet hoog-risico (controleer Art. 50 voor transparantie)
│
└── JA
│
▼
Is de Art. 6(3)-uitzondering van toepassing?
(nauwe procedurele taak, geen significant risico,
geen wezenlijke invloed op beslissingen)
│
├── JA → Niet hoog-risico (documenteren & autoriteit informeren)
│
└── NEE → HOOG-RISICO (Pad 2)
→ Moet voldoen aan Art. 9-15
→ Conformiteitsbeoordeling vereist (Art. 43)
→ Registratie in EU-database (Art. 49)
Aanbiedersverplichtingen voor hoog-risico AI (Art. 9–15)
| Verplichting | Artikel | Samenvatting |
|---|---|---|
| Risicobeheer | Art. 9 | Continue risicoidentificatie, -analyse, -beoordeling, -beperking |
| Datagovernance | Art. 10 | Kwaliteit trainingsdata, representativiteit, biasonderzoek |
| Technische documentatie | Art. 11 | Bijlage IV-documentatie voor marktintroductie |
| Administratie | Art. 12 | Automatische gebeurtenisregistratie, minimale bewaring 6 maanden |
| Transparantie | Art. 13 | Gebruiksinstructies verstrekt aan gebruikers |
| Menselijk toezicht | Art. 14 | Ontwerp voor effectief menselijk toezicht en ingrijpen |
| Nauwkeurigheid & robuustheid | Art. 15 | Passende nauwkeurigheidsniveaus, veerkracht tegen fouten en aanvallen |
| Kwaliteitsmanagement | Art. 17 | Kwaliteitsmanagementsysteem dat nalevingsprocessen dekt |
| Conformiteitsbeoordeling | Art. 43 | Zelfevaluatie (Bijlage VI) of derde partij (Bijlage VII) |
| EU-conformiteitsverklaring | Art. 47 | Formele verklaring per Bijlage V |
| CE-markering | Art. 48 | CE-markering aanbrengen op systeem of documentatie |
| Registratie | Art. 49 | Registratie in EU-database vóór marktintroductie |
| Postmarkttoezicht | Art. 72 | Proportioneel monitoringsysteem voor ingezette systemen |
| Incidentmelding | Art. 73 | Ernstige incidenten melden binnen 15 dagen |
Gebruikersverplichtingen (Art. 26)
Gebruikers (deployers) van hoog-risico AI hebben ook verplichtingen:
- Systeem gebruiken overeenkomstig de gebruiksinstructies
- Bevoegd personeel voor menselijk toezicht aanwijzen
- Systeemwerking monitoren en storingen melden
- Gegevensbeschermingseffectbeoordeling uitvoeren indien van toepassing (koppeling met AVG Art. 35)
- Betrokken personen informeren dat zij onderworpen zijn aan besluitvorming door hoog-risico AI
Veelgestelde vragen
Hoe weet ik of mijn AI-systeem hoog-risico is?
Volg het bovenstaande beslissingsstroomschema. Controleer eerst of het een veiligheidscomponent is van een Bijlage I-product. Controleer vervolgens of het in één van de 8 Bijlage III-categorieën valt. Zo ja, controleer dan of de Art. 6(3)-uitzondering van toepassing is. Bij twijfel: classificeer als hoog-risico — de gevolgen van onderclassificatie zijn veel erger dan de kosten van naleving.
Wat als mijn AI-systeem meerdere Bijlage III-categorieën omspant?
Het hoeft maar één keer als hoog-risico te worden geclassificeerd. De verplichtingen zijn hetzelfde, ongeacht welke categorie de classificatie triggert. Uw risicobeheersysteem moet echter risico's uit alle van toepassing zijnde categorieën aanpakken.
Kan mijn AI-systeem na inzet hoog-risico worden?
Ja. Als u het beoogde doel of de inzetcontext van een AI-systeem zodanig wijzigt dat het nu onder Bijlage III valt, wordt het hoog-risico en moet het aan alle verplichtingen voldoen. Daarom is voortdurende monitoring en classificatiebeoordeling belangrijk.
Wat is het verschil tussen hoog-risico en verboden AI?
Verboden AI (Art. 5) kan helemaal niet worden gebruikt — het is volledig verboden. Hoog-risico AI (Art. 6, Bijlage III) kan worden gebruikt maar moet voldoen aan strenge nalevingsvereisten. De grens kan flinterdun zijn: voorspellend politiewerk uitsluitend gebaseerd op profilering is verboden, maar AI die specifieke rechtshandhavingsonderzoeken ondersteunt is hoog-risico.
Hoeveel kost naleving voor hoog-risico AI per systeem?
De Europese Commissie schat 6.000–7.500 EUR voor het opzetten van het risicobeheersysteem en 3.000–7.500 EUR voor de conformiteitsbeoordeling per hoog-risico AI-systeem. De totale eerste jaar nalevingskosten variëren doorgaans van 20.000–45.000 EUR per systeem, hoewel automatisering via platforms zoals Matproof dit met 40–70% kan verminderen.