Automatisation de la conformité2026-03-2210 min de lecture

Systèmes d'IA à haut risque : La liste complète du Règlement IA

Également disponible en :EnglishDeutschEspañolNederlandsItaliano

Introduction : le coeur du Règlement IA repose sur la notion de risque

Le Règlement européen sur l'intelligence artificielle (EU AI Act) repose sur une approche fondée sur le risque. Au sommet de cette pyramide, après les pratiques purement interdites, se trouvent les systèmes d'IA à haut risque. Ce sont eux qui concentrent l'essentiel des obligations réglementaires.

Comprendre si votre système d'IA est classé à haut risque est la première question à se poser dans toute démarche de conformité. Ce guide détaille exhaustivement les deux voies de classification - l'Annexe I et l'Annexe III - et les obligations qui en découlent.

Comment un système d'IA est-il classé à haut risque ?

L'Article 6 du Règlement IA définit deux mécanismes distincts de classification :

Voie 1 : l'Annexe I (systèmes soumis à une législation sectorielle)

Un système d'IA est à haut risque s'il est un composant de sécurité d'un produit couvert par la législation d'harmonisation de l'Union listée à l'Annexe I, ou s'il constitue lui-même un tel produit, ET s'il doit faire l'objet d'une évaluation de conformité par un tiers.

L'Annexe I couvre notamment :

  • Machines et équipements (Règlement (UE) 2023/1230) : robots industriels, systèmes automatisés de fabrication
  • Jouets (Directive 2009/48/CE) : jouets interactifs intégrant de l'IA
  • Équipements sous pression (Directive 2014/68/UE)
  • Dispositifs médicaux (Règlement (UE) 2017/745) : logiciels de diagnostic, outils d'aide à la décision médicale
  • Dispositifs médicaux de diagnostic in vitro (Règlement (UE) 2017/746)
  • Véhicules à moteur (Règlement (UE) 2019/2144) : systèmes de conduite autonome, ADAS
  • Aviation civile (Règlement (UE) 2018/1139)
  • Équipements marins (Directive 2014/90/UE)
  • Ascenseurs (Directive 2014/33/UE)
  • Équipements ATEX (Directive 2014/34/UE)
  • Équipements radio (Directive 2014/53/UE)
  • Équipements sous pression transportables (Directive 2010/35/UE)
  • Installations à câbles (Règlement (UE) 2016/424)
  • Produits de construction - interopérabilité ferroviaire, sécurité aéronautique

Date d'application : 2 août 2027

Voie 2 : l'Annexe III (domaines d'utilisation autonomes)

L'Annexe III liste huit domaines dans lesquels les systèmes d'IA sont considérés à haut risque par leur seul domaine d'utilisation.

Date d'application : 2 août 2026

La liste complète de l'Annexe III

1. Identification biométrique et catégorisation des personnes physiques

Sont classés à haut risque :

  • Les systèmes d'identification biométrique à distance (hors vérification individuelle)
  • Les systèmes de catégorisation biométrique fondée sur des caractéristiques sensibles (origine ethnique, orientation sexuelle, convictions politiques ou religieuses)
  • Les systèmes de reconnaissance des émotions

Exemples concrets : reconnaissance faciale dans les espaces publics, analyse comportementale par vidéosurveillance, détection d'émotions dans un contexte professionnel.

2. Gestion et exploitation d'infrastructures critiques

Sont concernés les systèmes d'IA utilisés comme composants de sécurité dans :

  • La gestion du trafic routier et l'approvisionnement en eau, gaz, chauffage et électricité
  • Les infrastructures numériques critiques
  • Les systèmes de contrôle de la sécurité des transports

Exemples concrets : IA pilotant la distribution électrique, systèmes de gestion du trafic aérien, optimisation automatisée des réseaux d'eau potable.

3. Éducation et formation professionnelle

Les systèmes d'IA à haut risque dans ce domaine incluent :

  • Les systèmes déterminant l'accès ou l'admission à des établissements d'enseignement
  • Les systèmes évaluant les résultats d'apprentissage
  • Les systèmes déterminant le niveau d'éducation approprié pour une personne
  • Les systèmes surveillant les comportements interdits lors d'examens

Exemples concrets : algorithmes de sélection Parcoursup, correction automatisée d'examens, systèmes anti-triche basés sur l'IA, orientation scolaire algorithmique.

4. Emploi, gestion des travailleurs et accès au travail indépendant

Ce domaine couvre :

  • Les systèmes de tri et filtrage des candidatures
  • Les systèmes publiant des offres d'emploi ciblées
  • Les systèmes analysant et filtrant les candidatures
  • Les systèmes évaluant les candidats lors d'entretiens
  • Les systèmes prenant des décisions relatives à la promotion, au licenciement ou à l'allocation de tâches
  • Les systèmes surveillant et évaluant la performance des travailleurs

Exemples concrets : logiciels de recrutement par IA (ATS intelligents), systèmes de surveillance de la productivité, outils d'évaluation automatisée des performances, algorithmes de planification des effectifs.

5. Accès aux services publics et privés essentiels et jouissance de ces services

Sont classés à haut risque :

  • Les systèmes évaluant l'éligibilité aux prestations et services publics
  • Les systèmes d'évaluation de la solvabilité (credit scoring)
  • Les systèmes de tarification des assurances vie et santé
  • Les systèmes évaluant et classant les appels d'urgence (112, SAMU, pompiers)
  • Les systèmes de triage aux urgences

Exemples concrets : scoring de crédit bancaire, algorithmes de tarification d'assurance, systèmes d'attribution de logements sociaux, priorisation des appels au SAMU.

C'est dans ce domaine que se concentrent de nombreuses applications FinTech. Les entreprises du secteur financier doivent être particulièrement vigilantes.

6. Application de la loi

Les systèmes à haut risque incluent :

  • Les systèmes évaluant le risque qu'une personne devienne victime d'infractions pénales
  • Les polygraphes et outils similaires
  • Les systèmes évaluant la fiabilité des preuves
  • Les systèmes évaluant le risque de récidive
  • Les systèmes de profilage dans le cadre de la détection d'infractions

Exemples concrets : outils prédictifs de criminalité, analyse automatisée de preuves, systèmes d'aide à la décision pour les forces de l'ordre.

7. Migration, asile et contrôle aux frontières

Sont concernés :

  • Les polygraphes et outils similaires utilisés aux frontières
  • Les systèmes évaluant les risques migratoires (sécurité, sanitaires, irréguliers)
  • Les systèmes examinant les demandes d'asile et de visa
  • Les systèmes de détection, reconnaissance et identification dans le cadre migratoire

Exemples concrets : systèmes de contrôle automatisé aux frontières (e-gates), évaluation algorithmique des demandes de visa, détection de documents frauduleux.

8. Administration de la justice et processus démocratiques

Sont classés à haut risque :

  • Les systèmes aidant les autorités judiciaires dans la recherche et l'interprétation des faits et du droit
  • Les systèmes utilisés pour influencer le résultat d'élections ou de référendums

Exemples concrets : outils d'aide à la décision judiciaire, systèmes de recommandation de contenu politique ciblé, deepfakes politiques.

L'exception de l'Article 6(3) : quand le haut risque ne s'applique pas

L'Article 6(3) prévoit une exception importante : un système d'IA listé à l'Annexe III n'est PAS considéré comme à haut risque s'il ne présente pas de risque significatif de préjudice pour la santé, la sécurité ou les droits fondamentaux. C'est le cas lorsque le système :

  • Effectue une tâche procédurale étroite
  • Améliore le résultat d'une activité humaine préalablement réalisée
  • Détecte des schémas décisionnels sans remplacer l'évaluation humaine
  • Effectue une tâche préparatoire à une évaluation pertinente pour les cas d'utilisation de l'Annexe III

Attention : cette exception ne s'applique PAS si le système effectue un profilage au sens du RGPD (Article 4(4) du RGPD).

Le fournisseur qui invoque cette exception doit documenter son évaluation avant la mise sur le marché et la fournir aux autorités nationales sur demande.

Les obligations concrètes pour les systèmes à haut risque

Pour les fournisseurs (Article 16)

Obligation Article Description
Système de gestion des risques Art. 9 Processus continu tout au long du cycle de vie
Gouvernance des données Art. 10 Qualité, représentativité, absence de biais
Documentation technique Art. 11 Avant mise sur le marché
Journalisation automatique Art. 12 Traçabilité du fonctionnement
Transparence Art. 13 Instructions d'utilisation claires
Contrôle humain Art. 14 Supervision effective possible
Exactitude et robustesse Art. 15 Niveaux appropriés documentés
Système de gestion de la qualité Art. 17 Processus organisationnels
Marquage CE Art. 48 Apposition obligatoire
Déclaration de conformité Art. 47 Document formel
Enregistrement dans la base UE Art. 49 Avant mise sur le marché

Pour les déployeurs (Article 26)

  • Utilisation conforme aux instructions du fournisseur
  • Contrôle humain par des personnes compétentes
  • Données d'entrée pertinentes et représentatives
  • Surveillance du fonctionnement et signalement des incidents
  • Analyse d'impact sur les droits fondamentaux (Article 27)
  • Information des personnes physiques concernées

Comment déterminer si votre système est à haut risque

Utilisez cette checklist en 5 questions :

  1. Votre système d'IA est-il un composant de sécurité d'un produit couvert par l'Annexe I ?
  2. Votre système d'IA opère-t-il dans l'un des huit domaines de l'Annexe III ?
  3. Si oui au point 2, votre système effectue-t-il un profilage au sens du RGPD ?
  4. Votre système se limite-t-il à une tâche procédurale étroite sans impact décisionnel autonome ?
  5. Votre système remplace-t-il ou influence-t-il directement une décision humaine ?

Pour une évaluation précise et personnalisée, réalisez une évaluation gratuite de conformité IA sur Matproof.

Modifications futures de l'Annexe III

L'Article 7 habilite la Commission européenne à modifier l'Annexe III par actes délégués pour y ajouter de nouveaux domaines d'utilisation. La Commission doit toutefois respecter des critères stricts, notamment :

  • L'usage prévu du système d'IA
  • La mesure dans laquelle le système a été utilisé ou est susceptible de l'être
  • La gravité et la probabilité du préjudice
  • La mesure dans laquelle la législation existante offre une protection adéquate

Il est donc probable que la liste des systèmes à haut risque s'élargisse dans les années à venir.

FAQ

Q : Mon chatbot de service client est-il classé à haut risque ?

A : En principe, non. Un chatbot de service client standard relève du risque limité (obligation de transparence - l'utilisateur doit savoir qu'il interagit avec une IA). Toutefois, si ce chatbot prend des décisions ayant un impact sur l'accès à des services essentiels (crédit, assurance, prestations sociales), il pourrait être reclassé à haut risque.

Q : Notre outil de tri de CV par IA est-il concerné ?

A : Oui, très probablement. Les systèmes de tri et filtrage des candidatures sont explicitement listés dans l'Annexe III, domaine 4 (Emploi). C'est l'un des cas les plus clairs de classification à haut risque.

Q : Nous utilisons un modèle d'IA fourni par un tiers. Qui est responsable ?

A : En tant que déployeur, vous avez des obligations propres (Article 26). Le fournisseur du modèle a les siennes (Article 16). Si vous modifiez substantiellement le système ou le commercialisez sous votre nom, vous pouvez devenir fournisseur au sens du Règlement.

Q : L'exception de l'Article 6(3) peut-elle s'appliquer à notre système de scoring ?

A : Difficilement. Les systèmes de scoring impliquent généralement un profilage au sens du RGPD, ce qui exclut l'application de cette exception. De plus, si votre scoring influence directement une décision (octroi de crédit, accès à un service), il ne s'agit pas d'une "tâche procédurale étroite".

Q : Quel est le délai pour se mettre en conformité ?

A : Pour les systèmes relevant de l'Annexe III, la date butoir est le 2 août 2026. Pour ceux relevant de l'Annexe I, c'est le 2 août 2027. Compte tenu de la complexité des exigences, il est recommandé de commencer dès maintenant.

Q : Comment documenter que notre système n'est PAS à haut risque ?

A : L'Article 6(4) impose aux fournisseurs invoquant l'exception de documenter leur évaluation avant la mise sur le marché. Cette documentation doit être conservée et mise à disposition des autorités sur demande. Matproof vous aide à structurer et conserver cette documentation.

Conclusion

La classification à haut risque est le pivot central du Règlement IA. Identifier correctement si vos systèmes sont concernés détermine l'ensemble de vos obligations. Ne sous-estimez pas la complexité de cet exercice : les zones grises sont nombreuses et l'interprétation peut varier selon les autorités nationales.

Avec Matproof, cartographiez vos systèmes d'IA, évaluez automatiquement leur niveau de risque et suivez votre conformité en continu. Démarrez avec un essai gratuit.

systèmes IA haut risqueAnnexe III AI Actclassification risque IAEU AI Act systèmes interditsIA haut risque listeconformité systèmes IA

Prêt à simplifier la conformité ?

Soyez prêt pour l’audit en semaines, pas en mois. Découvrez Matproof en action.

Demander une démo