Introduction : le coeur du Règlement IA repose sur la notion de risque
Le Règlement européen sur l'intelligence artificielle (EU AI Act) repose sur une approche fondée sur le risque. Au sommet de cette pyramide, après les pratiques purement interdites, se trouvent les systèmes d'IA à haut risque. Ce sont eux qui concentrent l'essentiel des obligations réglementaires.
Comprendre si votre système d'IA est classé à haut risque est la première question à se poser dans toute démarche de conformité. Ce guide détaille exhaustivement les deux voies de classification - l'Annexe I et l'Annexe III - et les obligations qui en découlent.
Comment un système d'IA est-il classé à haut risque ?
L'Article 6 du Règlement IA définit deux mécanismes distincts de classification :
Voie 1 : l'Annexe I (systèmes soumis à une législation sectorielle)
Un système d'IA est à haut risque s'il est un composant de sécurité d'un produit couvert par la législation d'harmonisation de l'Union listée à l'Annexe I, ou s'il constitue lui-même un tel produit, ET s'il doit faire l'objet d'une évaluation de conformité par un tiers.
L'Annexe I couvre notamment :
- Machines et équipements (Règlement (UE) 2023/1230) : robots industriels, systèmes automatisés de fabrication
- Jouets (Directive 2009/48/CE) : jouets interactifs intégrant de l'IA
- Équipements sous pression (Directive 2014/68/UE)
- Dispositifs médicaux (Règlement (UE) 2017/745) : logiciels de diagnostic, outils d'aide à la décision médicale
- Dispositifs médicaux de diagnostic in vitro (Règlement (UE) 2017/746)
- Véhicules à moteur (Règlement (UE) 2019/2144) : systèmes de conduite autonome, ADAS
- Aviation civile (Règlement (UE) 2018/1139)
- Équipements marins (Directive 2014/90/UE)
- Ascenseurs (Directive 2014/33/UE)
- Équipements ATEX (Directive 2014/34/UE)
- Équipements radio (Directive 2014/53/UE)
- Équipements sous pression transportables (Directive 2010/35/UE)
- Installations à câbles (Règlement (UE) 2016/424)
- Produits de construction - interopérabilité ferroviaire, sécurité aéronautique
Date d'application : 2 août 2027
Voie 2 : l'Annexe III (domaines d'utilisation autonomes)
L'Annexe III liste huit domaines dans lesquels les systèmes d'IA sont considérés à haut risque par leur seul domaine d'utilisation.
Date d'application : 2 août 2026
La liste complète de l'Annexe III
1. Identification biométrique et catégorisation des personnes physiques
Sont classés à haut risque :
- Les systèmes d'identification biométrique à distance (hors vérification individuelle)
- Les systèmes de catégorisation biométrique fondée sur des caractéristiques sensibles (origine ethnique, orientation sexuelle, convictions politiques ou religieuses)
- Les systèmes de reconnaissance des émotions
Exemples concrets : reconnaissance faciale dans les espaces publics, analyse comportementale par vidéosurveillance, détection d'émotions dans un contexte professionnel.
2. Gestion et exploitation d'infrastructures critiques
Sont concernés les systèmes d'IA utilisés comme composants de sécurité dans :
- La gestion du trafic routier et l'approvisionnement en eau, gaz, chauffage et électricité
- Les infrastructures numériques critiques
- Les systèmes de contrôle de la sécurité des transports
Exemples concrets : IA pilotant la distribution électrique, systèmes de gestion du trafic aérien, optimisation automatisée des réseaux d'eau potable.
3. Éducation et formation professionnelle
Les systèmes d'IA à haut risque dans ce domaine incluent :
- Les systèmes déterminant l'accès ou l'admission à des établissements d'enseignement
- Les systèmes évaluant les résultats d'apprentissage
- Les systèmes déterminant le niveau d'éducation approprié pour une personne
- Les systèmes surveillant les comportements interdits lors d'examens
Exemples concrets : algorithmes de sélection Parcoursup, correction automatisée d'examens, systèmes anti-triche basés sur l'IA, orientation scolaire algorithmique.
4. Emploi, gestion des travailleurs et accès au travail indépendant
Ce domaine couvre :
- Les systèmes de tri et filtrage des candidatures
- Les systèmes publiant des offres d'emploi ciblées
- Les systèmes analysant et filtrant les candidatures
- Les systèmes évaluant les candidats lors d'entretiens
- Les systèmes prenant des décisions relatives à la promotion, au licenciement ou à l'allocation de tâches
- Les systèmes surveillant et évaluant la performance des travailleurs
Exemples concrets : logiciels de recrutement par IA (ATS intelligents), systèmes de surveillance de la productivité, outils d'évaluation automatisée des performances, algorithmes de planification des effectifs.
5. Accès aux services publics et privés essentiels et jouissance de ces services
Sont classés à haut risque :
- Les systèmes évaluant l'éligibilité aux prestations et services publics
- Les systèmes d'évaluation de la solvabilité (credit scoring)
- Les systèmes de tarification des assurances vie et santé
- Les systèmes évaluant et classant les appels d'urgence (112, SAMU, pompiers)
- Les systèmes de triage aux urgences
Exemples concrets : scoring de crédit bancaire, algorithmes de tarification d'assurance, systèmes d'attribution de logements sociaux, priorisation des appels au SAMU.
C'est dans ce domaine que se concentrent de nombreuses applications FinTech. Les entreprises du secteur financier doivent être particulièrement vigilantes.
6. Application de la loi
Les systèmes à haut risque incluent :
- Les systèmes évaluant le risque qu'une personne devienne victime d'infractions pénales
- Les polygraphes et outils similaires
- Les systèmes évaluant la fiabilité des preuves
- Les systèmes évaluant le risque de récidive
- Les systèmes de profilage dans le cadre de la détection d'infractions
Exemples concrets : outils prédictifs de criminalité, analyse automatisée de preuves, systèmes d'aide à la décision pour les forces de l'ordre.
7. Migration, asile et contrôle aux frontières
Sont concernés :
- Les polygraphes et outils similaires utilisés aux frontières
- Les systèmes évaluant les risques migratoires (sécurité, sanitaires, irréguliers)
- Les systèmes examinant les demandes d'asile et de visa
- Les systèmes de détection, reconnaissance et identification dans le cadre migratoire
Exemples concrets : systèmes de contrôle automatisé aux frontières (e-gates), évaluation algorithmique des demandes de visa, détection de documents frauduleux.
8. Administration de la justice et processus démocratiques
Sont classés à haut risque :
- Les systèmes aidant les autorités judiciaires dans la recherche et l'interprétation des faits et du droit
- Les systèmes utilisés pour influencer le résultat d'élections ou de référendums
Exemples concrets : outils d'aide à la décision judiciaire, systèmes de recommandation de contenu politique ciblé, deepfakes politiques.
L'exception de l'Article 6(3) : quand le haut risque ne s'applique pas
L'Article 6(3) prévoit une exception importante : un système d'IA listé à l'Annexe III n'est PAS considéré comme à haut risque s'il ne présente pas de risque significatif de préjudice pour la santé, la sécurité ou les droits fondamentaux. C'est le cas lorsque le système :
- Effectue une tâche procédurale étroite
- Améliore le résultat d'une activité humaine préalablement réalisée
- Détecte des schémas décisionnels sans remplacer l'évaluation humaine
- Effectue une tâche préparatoire à une évaluation pertinente pour les cas d'utilisation de l'Annexe III
Attention : cette exception ne s'applique PAS si le système effectue un profilage au sens du RGPD (Article 4(4) du RGPD).
Le fournisseur qui invoque cette exception doit documenter son évaluation avant la mise sur le marché et la fournir aux autorités nationales sur demande.
Les obligations concrètes pour les systèmes à haut risque
Pour les fournisseurs (Article 16)
| Obligation | Article | Description |
|---|---|---|
| Système de gestion des risques | Art. 9 | Processus continu tout au long du cycle de vie |
| Gouvernance des données | Art. 10 | Qualité, représentativité, absence de biais |
| Documentation technique | Art. 11 | Avant mise sur le marché |
| Journalisation automatique | Art. 12 | Traçabilité du fonctionnement |
| Transparence | Art. 13 | Instructions d'utilisation claires |
| Contrôle humain | Art. 14 | Supervision effective possible |
| Exactitude et robustesse | Art. 15 | Niveaux appropriés documentés |
| Système de gestion de la qualité | Art. 17 | Processus organisationnels |
| Marquage CE | Art. 48 | Apposition obligatoire |
| Déclaration de conformité | Art. 47 | Document formel |
| Enregistrement dans la base UE | Art. 49 | Avant mise sur le marché |
Pour les déployeurs (Article 26)
- Utilisation conforme aux instructions du fournisseur
- Contrôle humain par des personnes compétentes
- Données d'entrée pertinentes et représentatives
- Surveillance du fonctionnement et signalement des incidents
- Analyse d'impact sur les droits fondamentaux (Article 27)
- Information des personnes physiques concernées
Comment déterminer si votre système est à haut risque
Utilisez cette checklist en 5 questions :
- Votre système d'IA est-il un composant de sécurité d'un produit couvert par l'Annexe I ?
- Votre système d'IA opère-t-il dans l'un des huit domaines de l'Annexe III ?
- Si oui au point 2, votre système effectue-t-il un profilage au sens du RGPD ?
- Votre système se limite-t-il à une tâche procédurale étroite sans impact décisionnel autonome ?
- Votre système remplace-t-il ou influence-t-il directement une décision humaine ?
Pour une évaluation précise et personnalisée, réalisez une évaluation gratuite de conformité IA sur Matproof.
Modifications futures de l'Annexe III
L'Article 7 habilite la Commission européenne à modifier l'Annexe III par actes délégués pour y ajouter de nouveaux domaines d'utilisation. La Commission doit toutefois respecter des critères stricts, notamment :
- L'usage prévu du système d'IA
- La mesure dans laquelle le système a été utilisé ou est susceptible de l'être
- La gravité et la probabilité du préjudice
- La mesure dans laquelle la législation existante offre une protection adéquate
Il est donc probable que la liste des systèmes à haut risque s'élargisse dans les années à venir.
FAQ
Q : Mon chatbot de service client est-il classé à haut risque ?
A : En principe, non. Un chatbot de service client standard relève du risque limité (obligation de transparence - l'utilisateur doit savoir qu'il interagit avec une IA). Toutefois, si ce chatbot prend des décisions ayant un impact sur l'accès à des services essentiels (crédit, assurance, prestations sociales), il pourrait être reclassé à haut risque.
Q : Notre outil de tri de CV par IA est-il concerné ?
A : Oui, très probablement. Les systèmes de tri et filtrage des candidatures sont explicitement listés dans l'Annexe III, domaine 4 (Emploi). C'est l'un des cas les plus clairs de classification à haut risque.
Q : Nous utilisons un modèle d'IA fourni par un tiers. Qui est responsable ?
A : En tant que déployeur, vous avez des obligations propres (Article 26). Le fournisseur du modèle a les siennes (Article 16). Si vous modifiez substantiellement le système ou le commercialisez sous votre nom, vous pouvez devenir fournisseur au sens du Règlement.
Q : L'exception de l'Article 6(3) peut-elle s'appliquer à notre système de scoring ?
A : Difficilement. Les systèmes de scoring impliquent généralement un profilage au sens du RGPD, ce qui exclut l'application de cette exception. De plus, si votre scoring influence directement une décision (octroi de crédit, accès à un service), il ne s'agit pas d'une "tâche procédurale étroite".
Q : Quel est le délai pour se mettre en conformité ?
A : Pour les systèmes relevant de l'Annexe III, la date butoir est le 2 août 2026. Pour ceux relevant de l'Annexe I, c'est le 2 août 2027. Compte tenu de la complexité des exigences, il est recommandé de commencer dès maintenant.
Q : Comment documenter que notre système n'est PAS à haut risque ?
A : L'Article 6(4) impose aux fournisseurs invoquant l'exception de documenter leur évaluation avant la mise sur le marché. Cette documentation doit être conservée et mise à disposition des autorités sur demande. Matproof vous aide à structurer et conserver cette documentation.
Conclusion
La classification à haut risque est le pivot central du Règlement IA. Identifier correctement si vos systèmes sont concernés détermine l'ensemble de vos obligations. Ne sous-estimez pas la complexité de cet exercice : les zones grises sont nombreuses et l'interprétation peut varier selon les autorités nationales.
Avec Matproof, cartographiez vos systèmes d'IA, évaluez automatiquement leur niveau de risque et suivez votre conformité en continu. Démarrez avec un essai gratuit.