Regolamento IA2026-04-1611 min di lettura

Sistemi di IA ad alto rischio del Regolamento UE sull'IA: Guida completa alla classificazione

MW
Malte Wagenbach

Founder & CEO, Matproof

Sistemi di IA ad alto rischio del Regolamento UE sull'IA: Guida completa alla classificazione

I sistemi di IA ad alto rischio ai sensi del Regolamento UE sull'IA sono sistemi di IA classificati in una delle 8 categorie dell'Allegato III — che coprono biometria, infrastrutture critiche, istruzione, occupazione, servizi essenziali (tra cui il credit scoring e le assicurazioni), le forze dell'ordine, la migrazione e la giustizia — o sistemi di IA che sono componenti di sicurezza di prodotti regolamentati dalla legislazione esistente sulla sicurezza dei prodotti dell'UE elencata nell'Allegato I. Questi sistemi devono soddisfare 14 obblighi obbligatori del fornitore ai sensi degli Art. 9–15 prima del 2 agosto 2026, tra cui gestione dei rischi, governance dei dati, documentazione tecnica e valutazione di conformità, con sanzioni fino a 15 milioni di euro o il 3% del fatturato annuo mondiale in caso di inosservanza (Art. 99). La Commissione europea stima che il 15% di tutti i sistemi di IA nell'UE sarà classificato come ad alto rischio ai sensi di queste disposizioni — circa 300.000 sistemi.

Questa guida fornisce la ripartizione definitiva di ogni categoria ad alto rischio, spiega entrambi i percorsi di classificazione, dettaglia tutti gli obblighi e include un diagramma di flusso decisionale per determinare se il tuo sistema di IA è interessato.

Effettua la valutazione gratuita di preparazione all'AI Act per classificare i tuoi sistemi di IA in modo interattivo.

Due percorsi verso la classificazione ad alto rischio (Art. 6)

Il Regolamento di IA definisce i sistemi di IA ad alto rischio attraverso due percorsi distinti ai sensi dell'Articolo 6.

Percorso 1: Legislazione sulla sicurezza dei prodotti (Art. 6(1), Allegato I)

Sistemi di IA che sono componenti di sicurezza di prodotti coperti dalla legislazione di armonizzazione dell'UE elencata nell'Allegato I — tra cui macchinari, giocattoli, dispositivi medici, aviazione civile, veicoli a motore, attrezzature marine, sistemi ferroviari e dispositivi di protezione individuale. Questi sistemi di IA devono sottoporsi a una valutazione di conformità ai sensi della pertinente legislazione sui prodotti.

Esempio: Un sistema di IA che controlla la frenata nei veicoli autonomi è un componente di sicurezza ai sensi del Regolamento sui veicoli a motore.

Percorso 2: Alto rischio autonomo (Art. 6(2), Allegato III)

Sistemi di IA elencati nell'Allegato III in 8 categorie di utilizzo. Queste sono classificazioni autonome ad alto rischio basate sullo scopo previsto del sistema di IA.

L'eccezione dell'Art. 6(3)

Un sistema di IA elencato nell'Allegato III non è ad alto rischio se:

  • Non pone un rischio significativo di danno alla salute, alla sicurezza o ai diritti fondamentali
  • Non influenza materialmente il risultato del processo decisionale
  • È destinato a svolgere un compito procedurale limitato
  • È destinato a migliorare il risultato di un'attività umana precedentemente completata
  • È destinato a rilevare modelli decisionali senza sostituire la valutazione umana

Importante: I fornitori che invocano questa eccezione devono documentare la propria valutazione prima di immettere il sistema sul mercato e notificare l'autorità nazionale competente rilevante.

Le 8 categorie dell'Allegato III

Categoria 1: Identificazione e categorizzazione biometriche

Sistemi interessati:

  • Sistemi di identificazione biometrica remota (riconoscimento facciale per l'identificazione)
  • Sistemi di categorizzazione biometrica che classificano gli individui per attributi sensibili
  • Sistemi di riconoscimento delle emozioni (se utilizzati in contesti che non rientrano nei divieti dell'Art. 5)

Esempi del mondo reale:

  • Riconoscimento facciale negli aeroporti per la verifica dell'identità
  • Sistemi di monitoraggio delle emozioni dei dipendenti (contesti limitati)
  • Sistemi di stima dell'età al punto vendita

Distinzione chiave: L'identificazione biometrica in tempo reale negli spazi pubblici a fini di polizia è vietata ai sensi dell'Art. 5, salvo in casi eccezionali (terrorismo, bambini scomparsi, reati specifici con autorizzazione giudiziaria).

Statistica: L'Associazione Europea di Biometria stima che oltre 12.000 sistemi di IA biometrici operino nell'UE, di cui circa 3.000 probabilmente classificati come ad alto rischio.

Categoria 2: Gestione delle infrastrutture critiche

Sistemi interessati:

  • Sistemi di IA utilizzati come componenti di sicurezza nella gestione e nel funzionamento di infrastrutture digitali critiche, traffico stradale e fornitura di acqua/gas/riscaldamento/elettricità

Esempi del mondo reale:

  • IA che controlla il bilanciamento del carico della rete elettrica
  • IA di gestione del traffico che ottimizza la sincronizzazione dei segnali
  • Sistemi di IA che monitorano i processi di trattamento delle acque
  • IA di manutenzione predittiva per le infrastrutture energetiche

Sovrapposizione normativa: Questi sistemi spesso rientrano anche nei requisiti NIS2 per le infrastrutture critiche e DORA per le infrastrutture dei mercati finanziari.

Categoria 3: Istruzione e formazione professionale

Sistemi interessati:

  • IA che determina l'accesso a o l'assegnazione a istituti scolastici
  • IA che valuta i risultati di apprendimento
  • IA che valuta i livelli di istruzione appropriati
  • IA che monitora i comportamenti vietati durante gli esami (proctoring)

Esempi del mondo reale:

  • IA per la preselezione delle domande universitarie
  • Sistemi automatizzati di valutazione dei componimenti
  • Proctoring degli esami con IA per rilevare le frodi
  • Sistemi di previsione delle performance degli studenti

Statistica chiave: Uno studio UNESCO del 2025 ha rilevato che il 47% delle università europee utilizza almeno un sistema di IA che sarebbe classificato come ad alto rischio ai sensi dell'Allegato III.

Categoria 4: Occupazione e gestione dei lavoratori

Sistemi interessati:

  • IA per il reclutamento e la selezione (screening di CV, valutazione dei colloqui)
  • IA che prende decisioni su promozione, licenziamento o assegnazione dei compiti
  • IA che monitora e valuta le prestazioni e il comportamento dei lavoratori
  • Sistemi di IA nei rapporti di lavoro

Esempi del mondo reale:

  • Strumenti di filtraggio delle candidature
  • Valutazione dei colloqui video assistita dall'IA
  • Analisi delle prestazioni dei dipendenti
  • IA di ottimizzazione della pianificazione della forza lavoro
  • Monitoraggio della produttività guidato dall'IA

Statistica chiave: LinkedIn riferisce che il 67% dei responsabili delle assunzioni europei utilizza strumenti assistiti dall'IA, la maggior parte dei quali richiederà la conformità agli Art. 9–15.

Categoria 5: Accesso ai servizi essenziali

Sistemi interessati:

  • IA che valuta l'ammissibilità alle prestazioni di assistenza pubblica
  • IA utilizzata nel credit scoring e nella valutazione del merito creditizio
  • IA per la valutazione dei rischi e la determinazione dei prezzi nelle assicurazioni vita e salute
  • IA per la priorizzazione del dispacciamento dei servizi di emergenza

Esempi del mondo reale:

  • Modelli di credit scoring bancario
  • Algoritmi di determinazione dei prezzi del rischio assicurativo
  • Determinazione dell'ammissibilità alle prestazioni governative
  • IA per la priorizzazione del dispacciamento delle emergenze

Questa è la categoria più ampia per i servizi finanziari. Ogni banca, assicuratore e fintech che utilizza l'IA per decisioni di credito o di prezzo deve conformarsi.

Statistica chiave: L'ABE stima che oltre l'85% delle banche dell'UE utilizza l'IA nella valutazione del rischio di credito, rendendola la categoria più colpita in termini di volume.

Categoria 6: Forze dell'ordine

Sistemi interessati:

  • IA che valuta il rischio che una persona fisica commetta o recidivi in un reato
  • IA utilizzata come macchina della verità o strumenti simili
  • IA che valuta l'affidabilità delle prove
  • IA che valuta il rischio che una persona fisica sia vittima

Importante: Il policing predittivo basato esclusivamente sulla profilazione è vietato ai sensi dell'Art. 5. Gli strumenti di IA utilizzati dalle forze dell'ordine per specifici scopi investigativi possono essere ad alto rischio anziché vietati.

Categoria 7: Migrazione, asilo e controllo delle frontiere

Sistemi interessati:

  • IA utilizzata come macchina della verità o per il rilevamento delle emozioni alle frontiere
  • IA che valuta i rischi posti dalle persone ai valichi di frontiera
  • IA che assiste nell'esame delle domande di asilo o visto
  • IA utilizzata per la verifica dell'identità nei contesti migratori

Categoria 8: Amministrazione della giustizia e processi democratici

Sistemi interessati:

  • IA che assiste le autorità giudiziarie nella ricerca e nell'interpretazione di fatti e diritto
  • IA che assiste le autorità giudiziarie nell'applicazione del diritto a fatti concreti
  • IA utilizzata per influenzare il risultato di elezioni o referendum

Nota: I sistemi di IA puramente per compiti amministrativi (pianificazione, gestione documentale) non sono coperti.

Il tuo sistema di IA è ad alto rischio? Diagramma di flusso decisionale

INIZIO: Sviluppi/utilizzi un sistema di IA nell'UE
    │
    ▼
È un componente di sicurezza di un prodotto dell'Allegato I?
    │
    ├── SÌ → ALTO RISCHIO (Percorso 1)
    │
    └── NO
        │
        ▼
    Rientra in una delle 8 categorie dell'Allegato III?
        │
        ├── NO → Non è ad alto rischio (verificare Art. 50 per trasparenza)
        │
        └── SÌ
            │
            ▼
        L'eccezione dell'Art. 6(3) si applica?
        (compito procedurale limitato, nessun rischio significativo,
         nessuna influenza materiale sulle decisioni)
            │
            ├── SÌ → Non è ad alto rischio (documentare e notificare all'autorità)
            │
            └── NO → ALTO RISCHIO (Percorso 2)
                    → Deve conformarsi agli Art. 9-15
                    → Valutazione di conformità richiesta (Art. 43)
                    → Registrazione nel database UE (Art. 49)

Obblighi del fornitore per l'IA ad alto rischio (Art. 9–15)

Obbligo Articolo Sommario
Gestione dei rischi Art. 9 Identificazione, analisi, valutazione, mitigazione continua dei rischi
Governance dei dati Art. 10 Qualità dei dati di addestramento, rappresentatività, esame dei bias
Documentazione tecnica Art. 11 Documentazione dell'Allegato IV prima dell'immissione sul mercato
Tenuta dei registri Art. 12 Registrazione automatica degli eventi, conservazione minima 6 mesi
Trasparenza Art. 13 Istruzioni d'uso fornite ai deployer
Supervisione umana Art. 14 Progettazione per una supervisione e un intervento umani efficaci
Accuratezza e robustezza Art. 15 Livelli di accuratezza appropriati, resilienza contro errori e attacchi
Gestione della qualità Art. 17 Sistema di gestione della qualità che copre i processi di conformità
Valutazione di conformità Art. 43 Autovalutazione (Allegato VI) o terza parte (Allegato VII)
Dichiarazione UE di conformità Art. 47 Dichiarazione formale ai sensi dell'Allegato V
Marcatura CE Art. 48 Apporre la marcatura CE sul sistema o sulla documentazione
Registrazione Art. 49 Registrazione nel database UE prima dell'immissione sul mercato
Monitoraggio post-commercializzazione Art. 72 Sistema di monitoraggio proporzionato per i sistemi distribuiti
Segnalazione degli incidenti Art. 73 Segnalare incidenti gravi entro 15 giorni

Obblighi del deployer (Art. 26)

I deployer (utenti) di IA ad alto rischio hanno anche degli obblighi:

  • Utilizzare il sistema conformemente alle istruzioni d'uso
  • Assegnare personale di supervisione umana competente
  • Monitorare il funzionamento del sistema e segnalare i malfunzionamenti
  • Condurre una valutazione d'impatto sulla protezione dei dati ove applicabile (collegamento con il GDPR Art. 35)
  • Informare le persone interessate che sono soggette al processo decisionale dell'IA ad alto rischio

Domande frequenti

Come faccio a sapere se il mio sistema di IA è ad alto rischio?

Segui il diagramma di flusso decisionale sopra. Prima controlla se è un componente di sicurezza di un prodotto dell'Allegato I. Poi controlla se rientra in una delle 8 categorie dell'Allegato III. In caso affermativo, controlla se si applica l'eccezione dell'Art. 6(3). In caso di dubbio, classifica come ad alto rischio — le conseguenze di una sottoclassificazione sono di gran lunga più gravi del costo della conformità.

Cosa succede se il mio sistema di IA si estende su più categorie dell'Allegato III?

Deve essere classificato come ad alto rischio una sola volta. Gli obblighi sono gli stessi indipendentemente da quale categoria innesca la classificazione. Tuttavia, il tuo sistema di gestione dei rischi dovrebbe affrontare i rischi di tutte le categorie applicabili.

Il mio sistema di IA può diventare ad alto rischio dopo il deployment?

Sì. Se modifichi lo scopo previsto o il contesto di deployment di un sistema di IA in modo tale che ora rientri nell'Allegato III, diventa ad alto rischio e deve soddisfare tutti gli obblighi. Ecco perché il monitoraggio continuo e la revisione della classificazione sono importanti.

Qual è la differenza tra IA ad alto rischio e IA vietata?

L'IA vietata (Art. 5) non può essere utilizzata affatto — è completamente bandita. L'IA ad alto rischio (Art. 6, Allegato III) può essere utilizzata ma deve soddisfare rigorosi requisiti di conformità. La linea può essere sottile: il policing predittivo basato esclusivamente sulla profilazione è vietato, ma l'IA che assiste specifiche indagini delle forze dell'ordine è ad alto rischio.

Quanto costa la conformità per l'IA ad alto rischio per sistema?

La Commissione europea stima 6.000–7.500 EUR per la configurazione del sistema di gestione dei rischi e 3.000–7.500 EUR per la valutazione di conformità per sistema di IA ad alto rischio. I costi totali di conformità del primo anno variano tipicamente da 20.000 a 45.000 EUR per sistema, sebbene l'automazione tramite piattaforme come Matproof possa ridurli del 40–70%.

regolamento UE IA alto rischioclassificazione rischi AI Actsistemi IA alto rischioregolamento IA allegato IIIcategorie rischio regolamento UE IAclassificazione IA UE

EU AI Act Readiness Assessment

Check your AI compliance before August 2026

Take the free assessment

Pronto a semplificare la conformità?

Preparati all’audit in settimane, non mesi. Guarda Matproof in azione.

Richiedi una demo