AI-verordening2026-04-169 min leestijd

EU AI-verordening hoog-risico AI-systemen: Volledige classificatiegids

MW
Malte Wagenbach

Founder & CEO, Matproof

EU AI-verordening hoog-risico AI-systemen: Volledige classificatiegids

Hoog-risico AI-systemen onder de EU AI-verordening zijn AI-systemen die zijn geclassificeerd in één van de 8 categorieën in Bijlage III — met biometrie, kritieke infrastructuur, onderwijs, werkgelegenheid, essentiële diensten (inclusief kredietscoring en verzekeringen), rechtshandhaving, migratie en justitie — of AI-systemen die veiligheidscomponenten zijn van producten die worden gereguleerd door bestaande EU-productveiligheidswetgeving die is opgesomd in Bijlage I. Deze systemen moeten vóór 2 augustus 2026 voldoen aan 14 verplichte aanbiedersverplichtingen op grond van Art. 9–15, waaronder risicobeheer, datagovernance, technische documentatie en conformiteitsbeoordeling, met boetes van maximaal 15 miljoen euro of 3% van de wereldwijde jaaromzet bij niet-naleving (Art. 99). De Europese Commissie schat dat 15% van alle AI-systemen in de EU zal worden geclassificeerd als hoog-risico op grond van deze bepalingen — ongeveer 300.000 systemen.

Deze gids biedt de definitieve uitsplitsing van elke hoog-risico categorie, legt beide classificatiepaden uit, geeft details over alle verplichtingen en bevat een beslissingsstroomschema om te bepalen of uw AI-systeem kwalificeert.

Doe de gratis AI Act-gereedheidstoets om uw AI-systemen interactief te classificeren.

Twee paden naar hoog-risico classificatie (Art. 6)

De AI-verordening definieert hoog-risico AI-systemen via twee verschillende paden op grond van Artikel 6.

Pad 1: Productveiligheidswetgeving (Art. 6(1), Bijlage I)

AI-systemen die veiligheidscomponenten zijn van producten die vallen onder EU-harmonisatiewetgeving die is opgesomd in Bijlage I — waaronder machines, speelgoed, medische hulpmiddelen, burgerluchtvaart, motorvoertuigen, maritieme uitrusting, spoorwegsystemen en persoonlijke beschermingsuitrusting. Deze AI-systemen moeten een conformiteitsbeoordeling ondergaan op grond van de relevante productwetgeving.

Voorbeeld: Een AI-systeem dat het remmen in autonome voertuigen bestuurt, is een veiligheidscomponent op grond van de Motorvoertuigenverordening.

Pad 2: Zelfstandig hoog-risico (Art. 6(2), Bijlage III)

AI-systemen die zijn opgesomd in Bijlage III in 8 gebruikscategorieën. Dit zijn zelfstandige hoog-risico classificaties op basis van het beoogde doel van het AI-systeem.

De Art. 6(3)-uitzondering

Een AI-systeem dat is opgesomd in Bijlage III is niet hoog-risico als het:

  • Geen significant risico op schade aan gezondheid, veiligheid of grondrechten vormt
  • De uitkomst van besluitvorming niet wezenlijk beïnvloedt
  • Bedoeld is om een nauwe procedurele taak uit te voeren
  • Bedoeld is om het resultaat van een eerder voltooide menselijke activiteit te verbeteren
  • Bedoeld is om besluitvormingspatronen te detecteren zonder de menselijke beoordeling te vervangen

Belangrijk: Aanbieders die een beroep doen op deze uitzondering, moeten hun beoordeling documenteren voordat het systeem op de markt wordt gebracht en de relevante nationale bevoegde autoriteit informeren.

De 8 Bijlage III-categorieën

Categorie 1: Biometrische identificatie en categorisering

Betreffende systemen:

  • Systemen voor biometrische identificatie op afstand (gezichtsherkenning voor identificatie)
  • Biometrische categoriseringssystemen die personen classificeren op gevoelige kenmerken
  • Emotieherkenningssystemen (bij gebruik in contexten die niet vallen onder Art. 5-verboden)

Praktijkvoorbeelden:

  • Gezichtsherkenning op luchthavens voor identiteitsverificatie
  • Emotiemonitoringsystemen voor werknemers (beperkte contexten)
  • Leeftijdsschattingssystemen op het verkooppunt

Belangrijk onderscheid: Biometrische realtime-identificatie in openbare ruimten voor rechtshandhavingsdoeleinden is verboden op grond van Art. 5, behalve in nauwe uitzonderingen (terrorisme, vermiste kinderen, specifieke strafbare feiten met rechterlijke toestemming).

Statistiek: De Europese Biometrieassociatie schat dat meer dan 12.000 biometrische AI-systemen actief zijn in de EU, waarvan ongeveer 3.000 waarschijnlijk als hoog-risico worden geclassificeerd.

Categorie 2: Beheer van kritieke infrastructuur

Betreffende systemen:

  • AI-systemen die worden gebruikt als veiligheidscomponenten bij het beheer en de exploitatie van kritieke digitale infrastructuur, wegverkeer en water-/gas-/warmte-/elektriciteitsvoorziening

Praktijkvoorbeelden:

  • AI die de belastingverdeling van het elektriciteitsnet bestuurt
  • Verkeersbeheers-AI die de signaalcoördinatie optimaliseert
  • AI-systemen die waterbehandelingsprocessen monitoren
  • Predictief onderhoud-AI voor energieinfrastructuur

Regelgevingsoverlapping: Deze systemen vallen ook vaak onder NIS2-eisen voor kritieke infrastructuur en DORA voor financiëlemarktinfrastructuur.

Categorie 3: Onderwijs en beroepsopleiding

Betreffende systemen:

  • AI die toegang tot of plaatsing bij onderwijsinstellingen bepaalt
  • AI die leerresultaten beoordeelt
  • AI die passende onderwijsniveaus beoordeelt
  • AI die verboden gedrag tijdens examens monitort (proctoring)

Praktijkvoorbeelden:

  • AI voor preselectie van universiteitsaanvragen
  • Geautomatiseerde systemen voor het beoordelen van opstellen
  • AI-gestuurd examen-proctoring voor het detecteren van fraude
  • Systemen voor het voorspellen van studentenprestaties

Kernstatistiek: Een UNESCO-studie uit 2025 toonde aan dat 47% van de Europese universiteiten ten minste één AI-systeem gebruikt dat als hoog-risico zou worden geclassificeerd onder Bijlage III.

Categorie 4: Werkgelegenheid en werknemersbeheer

Betreffende systemen:

  • AI voor werving en selectie (cv-screening, beoordelingsinterviews)
  • AI die beslissingen neemt over promotie, ontslag of taakverdeling
  • AI die de prestaties en het gedrag van werknemers monitort en evalueert
  • AI-systemen in arbeidsrelaties

Praktijkvoorbeelden:

  • Tools voor het filteren van sollicitaties
  • AI-gestuurde beoordeling van video-interviews
  • Prestatieanalyse van werknemers
  • AI-optimalisatie van personeelsplanning
  • AI-gestuurde productiviteitsmonitoring

Kernstatistiek: LinkedIn meldt dat 67% van de Europese aanwervingsmanagers AI-ondersteunde tools gebruiken, waarvan de meerderheid Art. 9–15-naleving zal vereisen.

Categorie 5: Toegang tot essentiële diensten

Betreffende systemen:

  • AI die de geschiktheid voor publieke bijstand beoordeelt
  • AI die wordt gebruikt bij kredietscoring en kredietwaardigheidsbeoordelingen
  • AI voor risicobeoordeling en prijsstelling bij levens- en ziektekostenverzekeringen
  • AI voor prioritering van noodhulpverlening

Praktijkvoorbeelden:

  • Bankkredietscoringsmodellen
  • Risicobeoordelingsalgoritmen voor verzekeringen
  • Bepaling van geschiktheid voor overheidsuitkeringen
  • AI voor prioritering van noodhulpverlening

Dit is de breedste categorie voor financiële diensten. Elke bank, verzekeraar en fintech die AI gebruikt voor krediet- of prijsbeslissingen, moet voldoen.

Kernstatistiek: De EBA schat dat meer dan 85% van de EU-banken AI gebruikt bij kredietrisicobeoordeling, waardoor dit de meest getroffen categorie qua volume is.

Categorie 6: Rechtshandhaving

Betreffende systemen:

  • AI die het risico beoordeelt dat een natuurlijk persoon een strafbaar feit pleegt of recidiveert
  • AI die wordt gebruikt als leugendetector of soortgelijke hulpmiddelen
  • AI die de betrouwbaarheid van bewijsmateriaal evalueert
  • AI die het risico beoordeelt dat een natuurlijk persoon slachtoffer wordt

Belangrijk: Voorspellend politiewerk gebaseerd uitsluitend op profilering is verboden op grond van Art. 5. AI-hulpmiddelen die worden gebruikt door rechtshandhaving voor specifieke onderzoeksdoeleinden kunnen hoog-risico zijn in plaats van verboden.

Categorie 7: Migratie, asiel en grenscontrole

Betreffende systemen:

  • AI die wordt gebruikt als leugendetector of voor emotiedetectie aan grenzen
  • AI die risico's beoordeelt die door personen bij grensovergangen worden gesteld
  • AI die helpt bij het onderzoeken van asiel- of visumverzoeken
  • AI die wordt gebruikt voor identiteitsverificatie in migratiecontexten

Categorie 8: Rechtsbedeling en democratische processen

Betreffende systemen:

  • AI die gerechtelijke autoriteiten helpt bij het onderzoeken en interpreteren van feiten en recht
  • AI die gerechtelijke autoriteiten helpt bij het toepassen van het recht op concrete feiten
  • AI die wordt gebruikt om de uitkomst van verkiezingen of referenda te beïnvloeden

Opmerking: AI-systemen puur voor administratieve taken (planning, documentbeheer) vallen er niet onder.

Is uw AI-systeem hoog-risico? Beslissingsstroomschema

START: U ontwikkelt/gebruikt een AI-systeem in de EU
    │
    ▼
Is het een veiligheidscomponent van een Bijlage I-product?
    │
    ├── JA → HOOG-RISICO (Pad 1)
    │
    └── NEE
        │
        ▼
    Valt het in één van de 8 Bijlage III-categorieën?
        │
        ├── NEE → Niet hoog-risico (controleer Art. 50 voor transparantie)
        │
        └── JA
            │
            ▼
        Is de Art. 6(3)-uitzondering van toepassing?
        (nauwe procedurele taak, geen significant risico,
         geen wezenlijke invloed op beslissingen)
            │
            ├── JA → Niet hoog-risico (documenteren & autoriteit informeren)
            │
            └── NEE → HOOG-RISICO (Pad 2)
                    → Moet voldoen aan Art. 9-15
                    → Conformiteitsbeoordeling vereist (Art. 43)
                    → Registratie in EU-database (Art. 49)

Aanbiedersverplichtingen voor hoog-risico AI (Art. 9–15)

Verplichting Artikel Samenvatting
Risicobeheer Art. 9 Continue risicoidentificatie, -analyse, -beoordeling, -beperking
Datagovernance Art. 10 Kwaliteit trainingsdata, representativiteit, biasonderzoek
Technische documentatie Art. 11 Bijlage IV-documentatie voor marktintroductie
Administratie Art. 12 Automatische gebeurtenisregistratie, minimale bewaring 6 maanden
Transparantie Art. 13 Gebruiksinstructies verstrekt aan gebruikers
Menselijk toezicht Art. 14 Ontwerp voor effectief menselijk toezicht en ingrijpen
Nauwkeurigheid & robuustheid Art. 15 Passende nauwkeurigheidsniveaus, veerkracht tegen fouten en aanvallen
Kwaliteitsmanagement Art. 17 Kwaliteitsmanagementsysteem dat nalevingsprocessen dekt
Conformiteitsbeoordeling Art. 43 Zelfevaluatie (Bijlage VI) of derde partij (Bijlage VII)
EU-conformiteitsverklaring Art. 47 Formele verklaring per Bijlage V
CE-markering Art. 48 CE-markering aanbrengen op systeem of documentatie
Registratie Art. 49 Registratie in EU-database vóór marktintroductie
Postmarkttoezicht Art. 72 Proportioneel monitoringsysteem voor ingezette systemen
Incidentmelding Art. 73 Ernstige incidenten melden binnen 15 dagen

Gebruikersverplichtingen (Art. 26)

Gebruikers (deployers) van hoog-risico AI hebben ook verplichtingen:

  • Systeem gebruiken overeenkomstig de gebruiksinstructies
  • Bevoegd personeel voor menselijk toezicht aanwijzen
  • Systeemwerking monitoren en storingen melden
  • Gegevensbeschermingseffectbeoordeling uitvoeren indien van toepassing (koppeling met AVG Art. 35)
  • Betrokken personen informeren dat zij onderworpen zijn aan besluitvorming door hoog-risico AI

Veelgestelde vragen

Hoe weet ik of mijn AI-systeem hoog-risico is?

Volg het bovenstaande beslissingsstroomschema. Controleer eerst of het een veiligheidscomponent is van een Bijlage I-product. Controleer vervolgens of het in één van de 8 Bijlage III-categorieën valt. Zo ja, controleer dan of de Art. 6(3)-uitzondering van toepassing is. Bij twijfel: classificeer als hoog-risico — de gevolgen van onderclassificatie zijn veel erger dan de kosten van naleving.

Wat als mijn AI-systeem meerdere Bijlage III-categorieën omspant?

Het hoeft maar één keer als hoog-risico te worden geclassificeerd. De verplichtingen zijn hetzelfde, ongeacht welke categorie de classificatie triggert. Uw risicobeheersysteem moet echter risico's uit alle van toepassing zijnde categorieën aanpakken.

Kan mijn AI-systeem na inzet hoog-risico worden?

Ja. Als u het beoogde doel of de inzetcontext van een AI-systeem zodanig wijzigt dat het nu onder Bijlage III valt, wordt het hoog-risico en moet het aan alle verplichtingen voldoen. Daarom is voortdurende monitoring en classificatiebeoordeling belangrijk.

Wat is het verschil tussen hoog-risico en verboden AI?

Verboden AI (Art. 5) kan helemaal niet worden gebruikt — het is volledig verboden. Hoog-risico AI (Art. 6, Bijlage III) kan worden gebruikt maar moet voldoen aan strenge nalevingsvereisten. De grens kan flinterdun zijn: voorspellend politiewerk uitsluitend gebaseerd op profilering is verboden, maar AI die specifieke rechtshandhavingsonderzoeken ondersteunt is hoog-risico.

Hoeveel kost naleving voor hoog-risico AI per systeem?

De Europese Commissie schat 6.000–7.500 EUR voor het opzetten van het risicobeheersysteem en 3.000–7.500 EUR voor de conformiteitsbeoordeling per hoog-risico AI-systeem. De totale eerste jaar nalevingskosten variëren doorgaans van 20.000–45.000 EUR per systeem, hoewel automatisering via platforms zoals Matproof dit met 40–70% kan verminderen.

EU AI-verordening hoog risicoAI-wet risicoklassificatiehoog-risico AI-systemenAI-verordening bijlage IIIEU AI-verordening risicocategorieënAI-classificatie EU

EU AI Act Readiness Assessment

Check your AI compliance before August 2026

Take the free assessment

Klaar om compliance te vereenvoudigen?

Wees audit-ready in weken, niet maanden. Bekijk Matproof in actie.

Demo aanvragen