AI-verordening2026-04-168 min leestijd

AI-risicobeheersysteem: Volledige gids voor de EU AI-verordening (Art. 9)

MW
Malte Wagenbach

Founder & CEO, Matproof

AI-risicobeheersysteem: Volledige gids voor de EU AI-verordening (Art. 9)

Een AI-risicobeheersysteem onder de EU AI-verordening is een continu, iteratief systeem dat Art. 9 vereist voor elk hoog-risico AI-systeem — met risicoidentificatie, -analyse, -beoordeling en -mitigatie gedurende de volledige levenscyclus van AI, van ontwerp tot implementatie en postmarktmonitoring. Dit systeem moet vóór de handhavingsdeadline van 2 augustus 2026 worden ingericht, gedocumenteerd en onderhouden, met boetes van maximaal 15 miljoen euro of 3% van de wereldwijde jaaromzet bij niet-naleving (Art. 99). Volgens een OESO-enquête uit 2025 beschikt slechts 34% van de organisaties die AI in de EU gebruiken over een formeel AI-risicobeheerproces, en de Europese Commissie schat de kosten van het systeem op 6.000–7.000 € per hoog-risico AI-systeem.

Deze gids behandelt wat Art. 9 specifiek vereist, hoe u een conform systeem vanaf nul opbouwt, een praktische checklist en de tools die kunnen helpen.

Doe de gratis AI Act-gereedheidstoets om uw huidige risicobeheervolwassenheid te beoordelen.

Wat Art. 9 vereist

Artikel 9 van de EU AI-verordening stelt zes kernvereisten voor het risicobeheersysteem:

1. Continu en iteratief proces (Art. 9(1))

Het risicobeheersysteem moet een continu iteratief proces zijn, gepland en uitgevoerd gedurende de volledige levenscyclus van het hoog-risico AI-systeem. Het moet regelmatig en systematisch worden bijgewerkt. Dit is geen eenmalige beoordeling — het is een levend systeem.

Belangrijke implicatie: Jaarlijkse risicobeoordelingen zijn onvoldoende. U heeft een proces nodig dat herbeoordeling triggert wanneer het AI-systeem verandert, nieuwe risico's ontstaan of postmarktgegevens onverwacht gedrag onthullen.

2. Risicoidentificatie (Art. 9(2)(a))

U moet bekende en redelijkerwijs voorzienbare risico's identificeren en analyseren die het hoog-risico AI-systeem kan opleveren voor:

  • Gezondheid en veiligheid van personen
  • Grondrechten van personen
  • Het milieu (indien van toepassing)

Zowel het beoogde gebruik als de omstandigheden van redelijkerwijs voorzienbaar misbruik moeten worden gedekt.

3. Risicoschattings en -beoordeling (Art. 9(2)(b))

Voor elk geïdentificeerd risico schat u:

  • De waarschijnlijkheid dat het risico zich voordoet
  • De ernst van de potentiële schade
  • De betrokken groepen en hun kwetsbaarheid

Vervolgens beoordeelt u of het restrisico (na mitigatie) aanvaardbaar is gezien de voordelen van het systeem en de stand van de technologie.

4. Risicobeperking (Art. 9(2)(c)-(d))

Passende en gerichte risicobeheermaatregelen nemen. De AI-verordening specificeert een hiërarchie:

  1. Risico's elimineren door ontwerp- en ontwikkelingskeuzes waar mogelijk
  2. Risico's verminderen door adequate mitigatie- en beheersmaatregelen
  3. Gebruikers informeren over restrisico's via gebruiksinstructies en transparantiemaatregelen
  4. Technische maatregelen inclusief datagovernancepraktijken conform Art. 10

5. Tests (Art. 9(7)-(8))

Tests moeten worden uitgevoerd om:

  • De meest geschikte risicobeheermaatregelen te identificeren
  • Te zorgen dat het systeem consequent aan de vereisten voldoet
  • Te valideren aan vooraf gedefinieerde statistieken die passend zijn voor het beoogde doel van het systeem

Tests moeten omvatten:

  • Tests onder reële omstandigheden
  • Tests vóór de marktintroductie van het systeem
  • Tests gedurende de volledige levenscyclus van het systeem
  • Specifieke tests op bias en eerlijkheid

6. Rekening houden met de impact op specifieke groepen (Art. 9(9))

Hoog-risico AI-systemen die kinderen, personen met een handicap of andere kwetsbare groepen treffen, moeten rekening houden met de specifieke kenmerken van deze groepen in het risicobeheerproces.

Het vier-fasen-framework

Fase 1: Risicoidentificatie

Duur: 1–2 weken per AI-systeem

Activiteiten:

  • De beslissingsreikwijdte en inzetcontext van het AI-systeem in kaart brengen
  • Alle belanghebbenden identificeren (gebruikers, betrokkenen, beïnvloede partijen)
  • Gestructureerde risicobrainstorming uitvoeren (FMEA, HAZOP aangepast voor AI)
  • Bekende risico's uit vergelijkbare AI-systemen of academische literatuur beoordelen
  • Misbruikscenario's analyseren (adversariële invoer, doeldrift, overafhankelijkheid)
  • Datagerelateerdge risico's documenteren (bias, kwaliteit, representativiteit)

Deliverable: Risicoregister — een gestructureerde catalogus van alle geïdentificeerde risico's met beschrijvingen, categorieën en betrokken partijen.

Fase 2: Risicoanalyse en -beoordeling

Duur: 1–2 weken per AI-systeem

Activiteiten:

  • Elk risico beoordelen op waarschijnlijkheid (1–5) en ernst (1–5)
  • Risicoprioriteitsgetallen berekenen (Waarschijnlijkheid × Ernst × Detecteerbaarheid)
  • Risico's koppelen aan getroffen grondrechten (non-discriminatie, privacy, menselijke waardigheid)
  • Risico's beoordelen tegen de stand van de technologie — welke mitigaties zijn technisch haalbaar?
  • Acceptabiliteit van het restrisico evalueren: is het resterende risico proportioneel aan de systeemvoordelen?

Deliverable: Risicobeoordeling matrix met scores, prioriteiten en acceptabiliteitsbepalingen.

Fase 3: Risicobeperking

Duur: 2–4 weken per AI-systeem

Activiteiten:

  • Mitigatiemaatregelen ontwerpen voor elk onaanvaardbaar risico
  • Technische beheersmaatregelen implementeren (datavoorverwerking, uitvoerbeperkingen, betrouwbaarheidsdrempels)
  • Organisatorische beheersmaatregelen implementeren (menselijke toezichtprocedures, escalatiepaden)
  • Systeemdocumentatie bijwerken om mitigaties te weerspiegelen
  • Restrisico's aan gebruikers communiceren via gebruiksinstructies (Art. 13)

Mitigatiehiërarchie (Art. 9(2)(c)):

Prioriteit Aanpak Voorbeeld
1e Elimineren door ontwerp Vertekende trainingsfeatures verwijderen
2e Technische beheersmaatregelen Betrouwbaarheidsdrempels, uitvoervalidatie toevoegen
3e Organisatorische beheersmaatregelen Menselijke beoordeling voor grensgevallen
4e Gebruikers informeren Beperkingen en aanbevolen waarborgen documenteren

Deliverable: Mitigatieplan met toegewezen verantwoordelijkheden, tijdlijnen en succescriteria.

Fase 4: Monitoring en beoordeling

Duur: Doorlopend

Activiteiten:

  • Prestatiemonitoringstatistieken vaststellen (nauwkeurigheid, eerlijkheid, robuustheid)
  • Driftdetectie implementeren voor ingezette modellen
  • Postmarktfeedback verzamelen van gebruikers en betrokken personen
  • Periodieke risicobeoordelingen plannen (minimaal driemaandelijks voor hoge-ernstrisico's)
  • Incidentmeldingen en bijna-ongelukken verwerken
  • Risicoregister bijwerken met nieuwe bevindingen

Deliverable: Postmarktmonitoringplan + Periodieke risicobeoordelingsrapporten.

AI-risicobeheer checklist

Governance

  • AI-risicobeheerverantwoordelijke aangesteld (persoon of team)
  • Risicobereidheid en -tolerantiedrempels gedefinieerd
  • Rapportagelijnen naar senior management vastgesteld
  • AI-risicobeheer geïntegreerd in bestaand enterprise-risicoframework

Risicoidentificatie

  • AI-systeeminventaris voltooid met risicoklassificaties
  • Beoogd gebruik en voorzienbaar misbruik gedocumenteerd voor elk systeem
  • Risico's voor gezondheid, veiligheid en grondrechten geïdentificeerd
  • Impact op kwetsbare groepen beoordeeld (Art. 9(9))
  • Levend risicoregister onderhouden

Risicoanalyse

  • Alle risico's beoordeeld op waarschijnlijkheid en ernst
  • Acceptabiliteit van het restrisico geëvalueerd
  • Mitigaties vergeleken met de stand van de technologie

Risicobeperking

  • Mitigatiemaatregelen geïmplementeerd volgens de hiërarchie
  • Restrisico's gedocumenteerd in gebruikersinstructies (Art. 13)
  • Mitigaties gevalideerd door tests (Art. 9(7))

Tests

  • Vooraf gedefinieerde statistieken vastgesteld volgens Art. 9(8)
  • Getest onder reële omstandigheden
  • Getest op bias en eerlijkheid voor beschermde kenmerken
  • Testresultaten gedocumenteerd met geslaagd/gezakt-bepalingen

Monitoring

  • Postmarktmonitoringsysteem ingericht (Art. 72)
  • Incidentmeldingsprocedures gedefinieerd (Art. 73)
  • Periodieke risicobeoordelingen gepland (minimaal driemaandelijks)
  • Feedbackkanalen van gebruikers gecreëerd

Veelgemaakte fouten

1. Risicobeheer behandelen als een eenmalige oefening

Art. 9(1) schrijft uitdrukkelijk een continu iteratief proces voor. Organisaties die na de implementatie een risicobeoordeling voltooien en nooit meer herzien, zijn niet conform.

2. Voorzienbaar misbruik negeren

Art. 9(2)(a) vereist beoordeling van risico's van zowel het beoogde gebruik als het redelijkerwijs voorzienbare misbruik. Een kredietscorings-AI ontworpen voor leningbeslissingen, maar dat ook voor aanwervingsscreening gebruikt zou kunnen worden, creëert risico's die de aanbieder moet anticiperen.

3. Testvereisten missen

Art. 9(7) vereist tests tegen vooraf gedefinieerde statistieken — geen ad-hoctests achteraf. Definieer uw acceptatiecriteria vóór het testen, niet nadat u de resultaten heeft bekeken.

4. Kwetsbare groepen niet meenemen

Art. 9(9) vereist uitdrukkelijk dat rekening wordt gehouden met de impacts op kinderen, personen met een handicap en andere kwetsbare groepen. Dit wordt vaak over het hoofd gezien in generieke risicoframeworks.

Veelgestelde vragen

Wat is het verschil tussen AI-risicobeheer en traditioneel IT-risicobeheer?

AI-risicobeheer pakt unieke AI-uitdagingen aan: modeldrift, databias, verklaarbaarheidsbeperking, emergent gedrag en adversariële kwetsbaarheid. Traditioneel IT-risicobeheer richt zich op beschikbaarheid, vertrouwelijkheid en integriteit. Onder de EU AI-verordening moet AI-risicobeheer specifiek risico's voor grondrechten aanpakken — een dimensie die zelden wordt gedekt in IT-frameworks.

Hoe vaak moet het risicobeheersysteem worden bijgewerkt?

Art. 9(1) vereist continue updates gedurende de volledige levenscyclus van het AI-systeem. In de praktijk betekent dit: onmiddellijke updates wanneer het systeem wezenlijk verandert, driemaandelijkse beoordelingen voor hoge-ernstrisico's, jaarlijkse uitgebreide herbeoordeling en ad-hoc updates wanneer postmarktmonitoring nieuwe risico's onthult.

Kan ik ISO 31000 of NIST AI RMF gebruiken als mijn Art. 9-framework?

Ja — beide bieden solide grondslagen. Echter, geen van beide dekt de Art. 9-vereisten volledig. ISO 31000 mist AI-specifieke overwegingen (bias, drift, verklaarbaarheid). NIST AI RMF sluit goed aan maar dekt geen EU-specifieke vereisten zoals grondrechtenbeoordeling en analyse van de impact op kwetsbare groepen. Gebruik ze als startpunten en voeg Art. 9-specifieke elementen toe.

Welke tests zijn vereist onder Art. 9(7)?

Tests moeten valideren dat het AI-systeem zijn beoogde doel bereikt met aanvaardbaar restrisico. Dit omvat tests onder reële omstandigheden, tests tegen vooraf gedefinieerde statistieken, bias- en eerlijkheidstests voor beschermde kenmerken en robuustheidstests (adversariële invoer, grensgevallen). De kernvereiste is dat statistieken vóór het testen moeten worden gedefinieerd — niet afgeleid uit testresultaten.

Hoe verhoudt Art. 9 zich tot postmarktmonitoring onder Art. 72?

Ze vormen een feedbacklus. Art. 9 vereist het initiële risicobeheersysteem. Art. 72 vereist voortdurende postmarktmonitoring die terugvloeit naar Art. 9. Wanneer monitoring nieuwe risico's of prestatievermindering onthult, moet het risicobeheersysteem worden bijgewerkt.

AI-risicobeheerAI-risicobeheersysteemEU AI-verordening risicobeheerAI-risicobeoordelingArt. 9 AI-verordeningAI-risicomanagementsysteem

EU AI Act Readiness Assessment

Check your AI compliance before August 2026

Take the free assessment

Klaar om compliance te vereenvoudigen?

Wees audit-ready in weken, niet maanden. Bekijk Matproof in actie.

Demo aanvragen