Compliance-automatisering2026-03-229 min leestijd

Hoog-risico AI-systemen onder de AI-verordening: De complete lijst

Hoog-risico AI-systemen onder de AI-verordening: De complete lijst

Inleiding

De kern van de Europese AI-verordening (Verordening (EU) 2024/1689) is het risicogebaseerde classificatiesysteem. AI-systemen die als hoog-risico worden aangemerkt, moeten voldoen aan de strengste eisen van de verordening. Maar welke systemen vallen precies in deze categorie? En wat betekent dat voor uw organisatie?

In dit artikel vindt u de volledige lijst van hoog-risico AI-systemen zoals gedefinieerd in Bijlage III van de AI-verordening, aangevuld met een praktische uitleg per categorie. Daarnaast bespreken we de criteria waarmee u kunt bepalen of uw AI-systemen onder de hoog-risico classificatie vallen.

Twee routes naar hoog-risico classificatie

De AI-verordening definieert twee manieren waarop een AI-systeem als hoog-risico kan worden geclassificeerd (Artikel 6):

Route 1: Sectorale EU-wetgeving (Bijlage I)

AI-systemen die als veiligheidscomponent fungeren in producten die onder bestaande EU-productharmonisatiewetgeving vallen, worden automatisch als hoog-risico beschouwd. Dit omvat onder meer:

  • Machinerichtlijn (Verordening (EU) 2023/1230)
  • Speelgoedveiligheidsrichtlijn
  • Liftenrichtlijn
  • Medische hulpmiddelen (Verordening (EU) 2017/745)
  • In-vitro diagnostiek (Verordening (EU) 2017/746)
  • Motorvoertuigen
  • Luchtvaart (Verordening (EU) 2018/1139)
  • Drukapparatuur
  • Radioapparatuur (Richtlijn 2014/53/EU)

Als uw AI-systeem een veiligheidscomponent is van een product dat al onder een van deze richtlijnen valt, en als het systeem een conformiteitsbeoordeling door een derde partij moet ondergaan, dan is het per definitie hoog-risico.

Route 2: Specifieke toepassingsgebieden (Bijlage III)

De tweede route betreft specifieke toepassingsgebieden die in Bijlage III van de verordening worden opgesomd. Dit is de lijst die voor de meeste organisaties het meest relevant is.

De volledige Bijlage III: alle hoog-risico categorieen

1. Biometrie

AI-systemen die bedoeld zijn voor:

  • Biometrische identificatie op afstand (zowel realtime als achteraf), met uitzondering van systemen die uitsluitend worden gebruikt voor verificatie (bevestiging dat iemand is wie hij zegt te zijn)
  • Biometrische categorisatie op basis van gevoelige kenmerken zoals ras, politieke overtuigingen, vakbondslidmaatschap, religieuze overtuigingen, seksuele geaardheid of geslacht
  • Emotieherkenning in de context van rechtshandhaving, grensbeheer, de werkplek en het onderwijs

Praktijkvoorbeeld: Een systeem dat gezichtsherkenning gebruikt om personen te identificeren in camerabeelden van een winkelcentrum is hoog-risico. Een systeem dat gezichtsherkenning gebruikt om een telefoon te ontgrendelen (verificatie) is dat niet.

2. Kritieke infrastructuur

AI-systemen die bedoeld zijn als veiligheidscomponent bij het beheer en de exploitatie van:

  • Kritieke digitale infrastructuur
  • Wegverkeer (verkeersmanagementsystemen)
  • Water-, gas-, warmte- en elektriciteitsvoorziening

Praktijkvoorbeeld: Een AI-systeem dat het elektriciteitsnetwerk aanstuurt en autonome beslissingen neemt over het schakelen van stroomcircuits is hoog-risico. Predictive maintenance software die alleen waarschuwingen genereert, kan buiten deze categorie vallen.

3. Onderwijs en beroepsopleiding

AI-systemen die bedoeld zijn voor:

  • Bepaling van toegang tot of toelating tot onderwijs- en beroepsopleidingsinstellingen
  • Evaluatie van leerresultaten, inclusief wanneer deze worden gebruikt om het leertraject van een persoon te sturen
  • Beoordeling van het geschikte onderwijsniveau voor een persoon
  • Monitoring en detectie van ongeoorloofd gedrag van studenten tijdens examens

Praktijkvoorbeeld: Een AI-systeem dat automatisch tentamens beoordeelt en op basis daarvan bepaalt of een student slaagt, is hoog-risico. Een spellingcontrole in een tekstverwerkingsprogramma is dat niet.

4. Werkgelegenheid, personeelsbeheer en toegang tot zelfstandige arbeid

AI-systemen die bedoeld zijn voor:

  • Werving en selectie: plaatsing van gerichte vacatureadvertenties, screening van sollicitaties, evaluatie van kandidaten
  • Beslissingen over arbeidsvoorwaarden: promotie, ontslag, taakverdeling op basis van gedrag of persoonlijkheidskenmerken
  • Monitoring en evaluatie van werkprestaties en gedrag van werknemers

Praktijkvoorbeeld: Een AI-systeem dat cv's screent en automatisch kandidaten afwijst, is hoog-risico. Een systeem dat alleen urenregistratie bijhoudt zonder werknemers te evalueren, valt hier niet onder.

5. Toegang tot en gebruik van essentiele particuliere en openbare diensten

AI-systemen die bedoeld zijn voor:

  • Beoordeling van de kredietwaardigheid van natuurlijke personen (met uitzondering van fraudedetectie)
  • Risicobeoordeling en prijsstelling bij levens- en ziektekostenverzekeringen
  • Evaluatie en classificatie van noodoproepen door hulpdiensten
  • Triage in spoedeisende gezondheidszorg
  • Beoordeling van aanvragen voor sociale bijstand, uitkeringen en soortgelijke diensten

Praktijkvoorbeeld: Een AI-systeem dat automatisch kredietaanvragen beoordeelt en een leenscore toekent aan individuen, is hoog-risico. Een fraudedetectiesysteem dat verdachte transacties signaleert, kan buiten deze categorie vallen.

6. Rechtshandhaving

AI-systemen die bedoeld zijn voor gebruik door of namens rechtshandhavingsinstanties voor:

  • Beoordeling van het risico dat een persoon slachtoffer wordt van strafbare feiten
  • Gebruik als leugendetector of soortgelijk hulpmiddel
  • Beoordeling van de betrouwbaarheid van bewijs in strafrechtelijk onderzoek
  • Risicobeoordeling van natuurlijke personen met het oog op het plegen van strafbare feiten (predictive policing op individueel niveau)
  • Profilering van personen in het kader van opsporing, onderzoek of vervolging

Praktijkvoorbeeld: Een AI-systeem dat voorspelt welke personen een verhoogd risico hebben om een misdrijf te plegen (predictive policing), is hoog-risico.

7. Migratie, asiel en grenstoezichtbeheer

AI-systemen die bedoeld zijn voor:

  • Gebruik als leugendetector of soortgelijk hulpmiddel
  • Beoordeling van migratierisico's, waaronder beveiligingsrisico's, irreguliere migratie of gezondheidsrisico's
  • Onderzoek van aanvragen voor visa en verblijfsvergunningen, alsmede daarmee samenhangende klachten
  • Opsporing, herkenning of identificatie van personen in het kader van grenstoezicht (met uitzondering van reisdocumentverificatie)

8. Rechtsbedeling en democratische processen

AI-systemen die bedoeld zijn voor:

  • Onderzoek en interpretatie van feiten en recht en toepassing op concrete feiten (AI-rechters)
  • Beinvloeding van de uitkomst van verkiezingen of het stemgedrag van personen (met uitzondering van instrumenten die niet direct interageren met personen, zoals systemen voor het organiseren van campagnes)

Wanneer is een hoog-risico systeem toch geen hoog-risico?

Artikel 6, lid 3 bevat een belangrijke uitzondering. Een AI-systeem dat onder Bijlage III valt, wordt niet als hoog-risico beschouwd als het:

  • Een beperkte procedurele taak uitvoert
  • Het resultaat van een eerder voltooide menselijke activiteit verbetert
  • Een beslissingspatroon detecteert zonder menselijke beoordeling te vervangen
  • Een voorbereidende taak uitvoert voor een beoordeling die relevant is voor de in Bijlage III genoemde gebruiksdoelen

Deze uitzondering geldt echter niet als het AI-systeem profilering van personen uitvoert.

Let op: De aanbieder moet documenteren waarom het systeem niet als hoog-risico wordt beschouwd en deze documentatie ter beschikking stellen aan de bevoegde autoriteiten.

Verplichtingen voor hoog-risico AI-systemen

Als uw AI-systeem als hoog-risico wordt geclassificeerd, moet u voldoen aan een uitgebreid pakket eisen:

Vereiste Artikel Kernverplichting
Risicomanagementsysteem Art. 9 Doorlopend, iteratief risicomanagementproces
Data governance Art. 10 Kwaliteitseisen voor trainings-, validatie- en testdata
Technische documentatie Art. 11 Volledige documentatie voorafgaand aan marktintroductie
Registratie van activiteiten Art. 12 Automatische logging van systeemactiviteiten
Transparantie Art. 13 Duidelijke gebruiksinstructies voor deployers
Menselijk toezicht Art. 14 Mechanismen voor effectief menselijk toezicht
Nauwkeurigheid en robuustheid Art. 15 Adequate niveaus van prestatie en beveiliging
Kwaliteitsmanagementsysteem Art. 17 Gedocumenteerd QMS met procedures
Conformiteitsbeoordeling Art. 43 Beoordeling voorafgaand aan marktintroductie
EU-databank registratie Art. 49 Registratie in de openbare EU-databank
Post-market monitoring Art. 72 Doorlopende monitoring na marktintroductie

Hoe Matproof helpt bij classificatie en compliance

Het classificeren van uw AI-systemen en het voldoen aan alle vereisten is een complexe opgave. Matproof biedt geautomatiseerde tools die u helpen bij:

  • AI-systeemclassificatie: Bepaal automatisch of uw systemen als hoog-risico worden aangemerkt
  • Gap-analyse: Identificeer welke vereisten u al dekt en waar actie nodig is
  • Documentatiebeheer: Genereer en beheer technische documentatie conform Bijlage IV
  • Compliance monitoring: Volg uw voortgang via real-time dashboards

Start vandaag nog met de Gratis AI Act Readiness Assessment om te ontdekken welke van uw AI-systemen als hoog-risico worden geclassificeerd.

Veelgestelde vragen

Q: Kan een AI-systeem in meerdere hoog-risico categorieen vallen?

A: Ja. Een AI-systeem kan onder meerdere categorieen van Bijlage III vallen. Bijvoorbeeld, een AI-systeem dat wordt gebruikt voor kredietscoring en tegelijkertijd voor het beoordelen van verzekeringsrisico's, valt onder categorie 5 voor beide toepassingen. De strengste eisen zijn dan van toepassing.

Q: Wie bepaalt of een AI-systeem hoog-risico is?

A: De aanbieder (ontwikkelaar) van het AI-systeem is primair verantwoordelijk voor de classificatie. Echter, als een gebruiker (deployer) het systeem inzet voor een ander doel dan waarvoor het is bedoeld, kan de gebruiker zelf als aanbieder worden beschouwd en verantwoordelijk worden voor de classificatie.

Q: Wat als ik een AI-systeem van een derde partij gebruik dat hoog-risico is?

A: Als gebruiker (deployer) van een hoog-risico AI-systeem heeft u eigen verplichtingen onder Artikel 26. U moet onder meer het systeem gebruiken conform de gebruiksinstructies, zorgen voor menselijk toezicht, de input data monitoren en ernstige incidenten melden.

Q: Worden de hoog-risico categorieen nog uitgebreid?

A: Ja. De Europese Commissie heeft de bevoegdheid om de lijst in Bijlage III uit te breiden via gedelegeerde handelingen (Artikel 7). Dit kan gebeuren wanneer nieuwe risico's worden geidentificeerd. Organisaties moeten daarom alert blijven op wijzigingen.

Q: Geldt de uitzondering van Artikel 6, lid 3 ook voor AI-systemen in de financiele sector?

A: De uitzondering kan van toepassing zijn, maar is beperkt. Kredietscoringsystemen worden expliciet als hoog-risico aangemerkt en komen doorgaans niet in aanmerking voor de uitzondering, zeker niet als zij profilering van personen uitvoeren. Het is raadzaam om juridisch advies in te winnen bij twijfel.

Q: Moeten bestaande AI-systemen ook worden geclassificeerd?

A: Ja. AI-systemen die voor 2 augustus 2026 al op de markt zijn gebracht, moeten ook voldoen aan de verordening als zij na die datum nog in gebruik zijn. Er geldt een overgangsperiode tot 2 augustus 2027 voor systemen die onder sectorale EU-wetgeving vallen (Bijlage I), maar voor Bijlage III-systemen is de deadline 2 augustus 2026.

Conclusie

De classificatie van uw AI-systemen is de eerste en meest kritieke stap in het compliance-traject. De lijst van hoog-risico toepassingsgebieden in Bijlage III is breed en raakt vrijwel elke sector. Van financiele dienstverlening tot gezondheidszorg, van HR tot onderwijs: organisaties die AI inzetten voor besluitvorming over personen moeten zich voorbereiden op strenge eisen.

Begin nu met een inventarisatie van uw AI-systemen en toets deze aan de Bijlage III-categorieen. Met Matproof kunt u dit proces automatiseren en zorgen dat u tijdig compliant bent. Gratis proberen.

hoog-risico AI-systemenAI Act Bijlage IIIAI-verordening hoog risicoAI classificatie EUhoog-risico AI lijst

Klaar om compliance te vereenvoudigen?

Wees audit-ready in weken, niet maanden. Bekijk Matproof in actie.

Demo aanvragen