Sistemi di IA ad alto rischio del Regolamento UE sull'IA: Guida completa alla classificazione
I sistemi di IA ad alto rischio ai sensi del Regolamento UE sull'IA sono sistemi di IA classificati in una delle 8 categorie dell'Allegato III — che coprono biometria, infrastrutture critiche, istruzione, occupazione, servizi essenziali (tra cui il credit scoring e le assicurazioni), le forze dell'ordine, la migrazione e la giustizia — o sistemi di IA che sono componenti di sicurezza di prodotti regolamentati dalla legislazione esistente sulla sicurezza dei prodotti dell'UE elencata nell'Allegato I. Questi sistemi devono soddisfare 14 obblighi obbligatori del fornitore ai sensi degli Art. 9–15 prima del 2 agosto 2026, tra cui gestione dei rischi, governance dei dati, documentazione tecnica e valutazione di conformità, con sanzioni fino a 15 milioni di euro o il 3% del fatturato annuo mondiale in caso di inosservanza (Art. 99). La Commissione europea stima che il 15% di tutti i sistemi di IA nell'UE sarà classificato come ad alto rischio ai sensi di queste disposizioni — circa 300.000 sistemi.
Questa guida fornisce la ripartizione definitiva di ogni categoria ad alto rischio, spiega entrambi i percorsi di classificazione, dettaglia tutti gli obblighi e include un diagramma di flusso decisionale per determinare se il tuo sistema di IA è interessato.
Effettua la valutazione gratuita di preparazione all'AI Act per classificare i tuoi sistemi di IA in modo interattivo.
Due percorsi verso la classificazione ad alto rischio (Art. 6)
Il Regolamento di IA definisce i sistemi di IA ad alto rischio attraverso due percorsi distinti ai sensi dell'Articolo 6.
Percorso 1: Legislazione sulla sicurezza dei prodotti (Art. 6(1), Allegato I)
Sistemi di IA che sono componenti di sicurezza di prodotti coperti dalla legislazione di armonizzazione dell'UE elencata nell'Allegato I — tra cui macchinari, giocattoli, dispositivi medici, aviazione civile, veicoli a motore, attrezzature marine, sistemi ferroviari e dispositivi di protezione individuale. Questi sistemi di IA devono sottoporsi a una valutazione di conformità ai sensi della pertinente legislazione sui prodotti.
Esempio: Un sistema di IA che controlla la frenata nei veicoli autonomi è un componente di sicurezza ai sensi del Regolamento sui veicoli a motore.
Percorso 2: Alto rischio autonomo (Art. 6(2), Allegato III)
Sistemi di IA elencati nell'Allegato III in 8 categorie di utilizzo. Queste sono classificazioni autonome ad alto rischio basate sullo scopo previsto del sistema di IA.
L'eccezione dell'Art. 6(3)
Un sistema di IA elencato nell'Allegato III non è ad alto rischio se:
- Non pone un rischio significativo di danno alla salute, alla sicurezza o ai diritti fondamentali
- Non influenza materialmente il risultato del processo decisionale
- È destinato a svolgere un compito procedurale limitato
- È destinato a migliorare il risultato di un'attività umana precedentemente completata
- È destinato a rilevare modelli decisionali senza sostituire la valutazione umana
Importante: I fornitori che invocano questa eccezione devono documentare la propria valutazione prima di immettere il sistema sul mercato e notificare l'autorità nazionale competente rilevante.
Le 8 categorie dell'Allegato III
Categoria 1: Identificazione e categorizzazione biometriche
Sistemi interessati:
- Sistemi di identificazione biometrica remota (riconoscimento facciale per l'identificazione)
- Sistemi di categorizzazione biometrica che classificano gli individui per attributi sensibili
- Sistemi di riconoscimento delle emozioni (se utilizzati in contesti che non rientrano nei divieti dell'Art. 5)
Esempi del mondo reale:
- Riconoscimento facciale negli aeroporti per la verifica dell'identità
- Sistemi di monitoraggio delle emozioni dei dipendenti (contesti limitati)
- Sistemi di stima dell'età al punto vendita
Distinzione chiave: L'identificazione biometrica in tempo reale negli spazi pubblici a fini di polizia è vietata ai sensi dell'Art. 5, salvo in casi eccezionali (terrorismo, bambini scomparsi, reati specifici con autorizzazione giudiziaria).
Statistica: L'Associazione Europea di Biometria stima che oltre 12.000 sistemi di IA biometrici operino nell'UE, di cui circa 3.000 probabilmente classificati come ad alto rischio.
Categoria 2: Gestione delle infrastrutture critiche
Sistemi interessati:
- Sistemi di IA utilizzati come componenti di sicurezza nella gestione e nel funzionamento di infrastrutture digitali critiche, traffico stradale e fornitura di acqua/gas/riscaldamento/elettricità
Esempi del mondo reale:
- IA che controlla il bilanciamento del carico della rete elettrica
- IA di gestione del traffico che ottimizza la sincronizzazione dei segnali
- Sistemi di IA che monitorano i processi di trattamento delle acque
- IA di manutenzione predittiva per le infrastrutture energetiche
Sovrapposizione normativa: Questi sistemi spesso rientrano anche nei requisiti NIS2 per le infrastrutture critiche e DORA per le infrastrutture dei mercati finanziari.
Categoria 3: Istruzione e formazione professionale
Sistemi interessati:
- IA che determina l'accesso a o l'assegnazione a istituti scolastici
- IA che valuta i risultati di apprendimento
- IA che valuta i livelli di istruzione appropriati
- IA che monitora i comportamenti vietati durante gli esami (proctoring)
Esempi del mondo reale:
- IA per la preselezione delle domande universitarie
- Sistemi automatizzati di valutazione dei componimenti
- Proctoring degli esami con IA per rilevare le frodi
- Sistemi di previsione delle performance degli studenti
Statistica chiave: Uno studio UNESCO del 2025 ha rilevato che il 47% delle università europee utilizza almeno un sistema di IA che sarebbe classificato come ad alto rischio ai sensi dell'Allegato III.
Categoria 4: Occupazione e gestione dei lavoratori
Sistemi interessati:
- IA per il reclutamento e la selezione (screening di CV, valutazione dei colloqui)
- IA che prende decisioni su promozione, licenziamento o assegnazione dei compiti
- IA che monitora e valuta le prestazioni e il comportamento dei lavoratori
- Sistemi di IA nei rapporti di lavoro
Esempi del mondo reale:
- Strumenti di filtraggio delle candidature
- Valutazione dei colloqui video assistita dall'IA
- Analisi delle prestazioni dei dipendenti
- IA di ottimizzazione della pianificazione della forza lavoro
- Monitoraggio della produttività guidato dall'IA
Statistica chiave: LinkedIn riferisce che il 67% dei responsabili delle assunzioni europei utilizza strumenti assistiti dall'IA, la maggior parte dei quali richiederà la conformità agli Art. 9–15.
Categoria 5: Accesso ai servizi essenziali
Sistemi interessati:
- IA che valuta l'ammissibilità alle prestazioni di assistenza pubblica
- IA utilizzata nel credit scoring e nella valutazione del merito creditizio
- IA per la valutazione dei rischi e la determinazione dei prezzi nelle assicurazioni vita e salute
- IA per la priorizzazione del dispacciamento dei servizi di emergenza
Esempi del mondo reale:
- Modelli di credit scoring bancario
- Algoritmi di determinazione dei prezzi del rischio assicurativo
- Determinazione dell'ammissibilità alle prestazioni governative
- IA per la priorizzazione del dispacciamento delle emergenze
Questa è la categoria più ampia per i servizi finanziari. Ogni banca, assicuratore e fintech che utilizza l'IA per decisioni di credito o di prezzo deve conformarsi.
Statistica chiave: L'ABE stima che oltre l'85% delle banche dell'UE utilizza l'IA nella valutazione del rischio di credito, rendendola la categoria più colpita in termini di volume.
Categoria 6: Forze dell'ordine
Sistemi interessati:
- IA che valuta il rischio che una persona fisica commetta o recidivi in un reato
- IA utilizzata come macchina della verità o strumenti simili
- IA che valuta l'affidabilità delle prove
- IA che valuta il rischio che una persona fisica sia vittima
Importante: Il policing predittivo basato esclusivamente sulla profilazione è vietato ai sensi dell'Art. 5. Gli strumenti di IA utilizzati dalle forze dell'ordine per specifici scopi investigativi possono essere ad alto rischio anziché vietati.
Categoria 7: Migrazione, asilo e controllo delle frontiere
Sistemi interessati:
- IA utilizzata come macchina della verità o per il rilevamento delle emozioni alle frontiere
- IA che valuta i rischi posti dalle persone ai valichi di frontiera
- IA che assiste nell'esame delle domande di asilo o visto
- IA utilizzata per la verifica dell'identità nei contesti migratori
Categoria 8: Amministrazione della giustizia e processi democratici
Sistemi interessati:
- IA che assiste le autorità giudiziarie nella ricerca e nell'interpretazione di fatti e diritto
- IA che assiste le autorità giudiziarie nell'applicazione del diritto a fatti concreti
- IA utilizzata per influenzare il risultato di elezioni o referendum
Nota: I sistemi di IA puramente per compiti amministrativi (pianificazione, gestione documentale) non sono coperti.
Il tuo sistema di IA è ad alto rischio? Diagramma di flusso decisionale
INIZIO: Sviluppi/utilizzi un sistema di IA nell'UE
│
▼
È un componente di sicurezza di un prodotto dell'Allegato I?
│
├── SÌ → ALTO RISCHIO (Percorso 1)
│
└── NO
│
▼
Rientra in una delle 8 categorie dell'Allegato III?
│
├── NO → Non è ad alto rischio (verificare Art. 50 per trasparenza)
│
└── SÌ
│
▼
L'eccezione dell'Art. 6(3) si applica?
(compito procedurale limitato, nessun rischio significativo,
nessuna influenza materiale sulle decisioni)
│
├── SÌ → Non è ad alto rischio (documentare e notificare all'autorità)
│
└── NO → ALTO RISCHIO (Percorso 2)
→ Deve conformarsi agli Art. 9-15
→ Valutazione di conformità richiesta (Art. 43)
→ Registrazione nel database UE (Art. 49)
Obblighi del fornitore per l'IA ad alto rischio (Art. 9–15)
| Obbligo | Articolo | Sommario |
|---|---|---|
| Gestione dei rischi | Art. 9 | Identificazione, analisi, valutazione, mitigazione continua dei rischi |
| Governance dei dati | Art. 10 | Qualità dei dati di addestramento, rappresentatività, esame dei bias |
| Documentazione tecnica | Art. 11 | Documentazione dell'Allegato IV prima dell'immissione sul mercato |
| Tenuta dei registri | Art. 12 | Registrazione automatica degli eventi, conservazione minima 6 mesi |
| Trasparenza | Art. 13 | Istruzioni d'uso fornite ai deployer |
| Supervisione umana | Art. 14 | Progettazione per una supervisione e un intervento umani efficaci |
| Accuratezza e robustezza | Art. 15 | Livelli di accuratezza appropriati, resilienza contro errori e attacchi |
| Gestione della qualità | Art. 17 | Sistema di gestione della qualità che copre i processi di conformità |
| Valutazione di conformità | Art. 43 | Autovalutazione (Allegato VI) o terza parte (Allegato VII) |
| Dichiarazione UE di conformità | Art. 47 | Dichiarazione formale ai sensi dell'Allegato V |
| Marcatura CE | Art. 48 | Apporre la marcatura CE sul sistema o sulla documentazione |
| Registrazione | Art. 49 | Registrazione nel database UE prima dell'immissione sul mercato |
| Monitoraggio post-commercializzazione | Art. 72 | Sistema di monitoraggio proporzionato per i sistemi distribuiti |
| Segnalazione degli incidenti | Art. 73 | Segnalare incidenti gravi entro 15 giorni |
Obblighi del deployer (Art. 26)
I deployer (utenti) di IA ad alto rischio hanno anche degli obblighi:
- Utilizzare il sistema conformemente alle istruzioni d'uso
- Assegnare personale di supervisione umana competente
- Monitorare il funzionamento del sistema e segnalare i malfunzionamenti
- Condurre una valutazione d'impatto sulla protezione dei dati ove applicabile (collegamento con il GDPR Art. 35)
- Informare le persone interessate che sono soggette al processo decisionale dell'IA ad alto rischio
Domande frequenti
Come faccio a sapere se il mio sistema di IA è ad alto rischio?
Segui il diagramma di flusso decisionale sopra. Prima controlla se è un componente di sicurezza di un prodotto dell'Allegato I. Poi controlla se rientra in una delle 8 categorie dell'Allegato III. In caso affermativo, controlla se si applica l'eccezione dell'Art. 6(3). In caso di dubbio, classifica come ad alto rischio — le conseguenze di una sottoclassificazione sono di gran lunga più gravi del costo della conformità.
Cosa succede se il mio sistema di IA si estende su più categorie dell'Allegato III?
Deve essere classificato come ad alto rischio una sola volta. Gli obblighi sono gli stessi indipendentemente da quale categoria innesca la classificazione. Tuttavia, il tuo sistema di gestione dei rischi dovrebbe affrontare i rischi di tutte le categorie applicabili.
Il mio sistema di IA può diventare ad alto rischio dopo il deployment?
Sì. Se modifichi lo scopo previsto o il contesto di deployment di un sistema di IA in modo tale che ora rientri nell'Allegato III, diventa ad alto rischio e deve soddisfare tutti gli obblighi. Ecco perché il monitoraggio continuo e la revisione della classificazione sono importanti.
Qual è la differenza tra IA ad alto rischio e IA vietata?
L'IA vietata (Art. 5) non può essere utilizzata affatto — è completamente bandita. L'IA ad alto rischio (Art. 6, Allegato III) può essere utilizzata ma deve soddisfare rigorosi requisiti di conformità. La linea può essere sottile: il policing predittivo basato esclusivamente sulla profilazione è vietato, ma l'IA che assiste specifiche indagini delle forze dell'ordine è ad alto rischio.
Quanto costa la conformità per l'IA ad alto rischio per sistema?
La Commissione europea stima 6.000–7.500 EUR per la configurazione del sistema di gestione dei rischi e 3.000–7.500 EUR per la valutazione di conformità per sistema di IA ad alto rischio. I costi totali di conformità del primo anno variano tipicamente da 20.000 a 45.000 EUR per sistema, sebbene l'automazione tramite piattaforme come Matproof possa ridurli del 40–70%.