Sistemi di IA ad alto rischio: L'elenco completo del Regolamento IA
Introduzione
Il Regolamento europeo sull'Intelligenza Artificiale (Regolamento (UE) 2024/1689) classifica i sistemi di IA in base al livello di rischio che presentano per la salute, la sicurezza e i diritti fondamentali delle persone. I sistemi classificati come "ad alto rischio" sono soggetti ai requisiti piu stringenti del Regolamento, e la loro corretta identificazione rappresenta il primo passo fondamentale verso la conformità.
Ma quali sistemi rientrano esattamente in questa categoria? Come si determina se un sistema di IA specifico e ad alto rischio? E quali obblighi ne derivano?
Questo articolo fornisce l'elenco completo e dettagliato dei sistemi di IA ad alto rischio, basato sull'Allegato III e sull'Articolo 6 del Regolamento, con indicazioni pratiche per ogni categoria.
Come si determina l'alto rischio: il meccanismo a due livelli
Il Regolamento prevede due percorsi distinti per la classificazione di un sistema di IA come ad alto rischio.
Primo percorso: sistemi integrati in prodotti regolamentati (Articolo 6, paragrafo 1)
Un sistema di IA e considerato ad alto rischio quando:
- E destinato a essere utilizzato come componente di sicurezza di un prodotto coperto dalla legislazione di armonizzazione dell'UE elencata nell'Allegato I, oppure e esso stesso un tale prodotto; e
- Il prodotto e soggetto a una valutazione della conformità da parte di terzi per la sua immissione sul mercato.
L'Allegato I include, tra le altre, la legislazione relativa a:
- Macchine e apparecchiature (Regolamento (UE) 2023/1230)
- Giocattoli (Direttiva 2009/48/CE)
- Imbarcazioni da diporto (Direttiva 2013/53/UE)
- Ascensori (Direttiva 2014/33/UE)
- Dispositivi medici (Regolamento (UE) 2017/745)
- Dispositivi medico-diagnostici in vitro (Regolamento (UE) 2017/746)
- Veicoli a motore (Regolamento (UE) 2019/2144)
- Aviazione civile (Regolamento (UE) 2018/1139)
- Apparecchiature radio (Direttiva 2014/53/UE)
La piena applicabilita per questi sistemi decorre dal 2 agosto 2027.
Secondo percorso: sistemi elencati nell'Allegato III (Articolo 6, paragrafo 2)
L'Allegato III identifica specifiche categorie di sistemi di IA considerati ad alto rischio per la loro finalita e il contesto d'uso. Questi sistemi sono pienamente soggetti agli obblighi a partire dal 2 agosto 2026.
Elenco completo dei sistemi ad alto rischio - Allegato III
1. Biometria
Sistemi di identificazione biometrica remota, sia in tempo reale che a posteriori, ad eccezione dei sistemi destinati esclusivamente alla verifica biometrica (conferma che una persona e chi dice di essere).
Sistemi di categorizzazione biometrica che deducono attributi o caratteristiche sensibili delle persone fisiche, quali razza, opinioni politiche, appartenenza sindacale, convinzioni religiose o filosofiche, vita sessuale o orientamento sessuale.
Sistemi di riconoscimento delle emozioni, utilizzati per dedurre lo stato emotivo delle persone fisiche.
Implicazione pratica: Se la vostra organizzazione utilizza sistemi di riconoscimento facciale, analisi del sentimento o profilazione biometrica, questi rientrano quasi certamente nella categoria ad alto rischio.
2. Infrastrutture critiche
Sistemi di IA destinati a essere utilizzati come componenti di sicurezza nella gestione e nel funzionamento di infrastrutture digitali critiche, del traffico stradale o nella fornitura di acqua, gas, riscaldamento o elettricita.
Questo include:
- Sistemi di gestione del traffico stradale, ferroviario, aereo e marittimo
- Sistemi di controllo delle reti energetiche
- Sistemi di monitoraggio delle infrastrutture idriche
- Sistemi di gestione delle telecomunicazioni
Implicazione pratica: Le utility, gli operatori di trasporto e i gestori di infrastrutture digitali devono prestare particolare attenzione ai sistemi di IA utilizzati per il monitoraggio e il controllo operativo.
3. Istruzione e formazione professionale
Sistemi di IA destinati a determinare l'accesso, l'ammissione o l'assegnazione delle persone fisiche a istituti di istruzione e formazione professionale a tutti i livelli.
Sistemi per la valutazione dei risultati dell'apprendimento, inclusi quelli utilizzati per orientare il processo di apprendimento, e sistemi per il monitoraggio e la rilevazione di comportamenti vietati durante gli esami.
Implicazione pratica: Universita, scuole, piattaforme di e-learning e organismi di certificazione che utilizzano l'IA per valutazioni, ammissioni o proctoring devono conformarsi ai requisiti per i sistemi ad alto rischio.
4. Occupazione, gestione dei lavoratori e accesso al lavoro autonomo
Questa categoria e particolarmente ampia e riguarda:
- Assunzione e selezione: sistemi per il vaglio o la selezione delle candidature, per il filtraggio o la valutazione dei candidati durante colloqui o prove
- Decisioni sulle condizioni di lavoro: promozioni, cessazione del rapporto, assegnazione di compiti basata sul comportamento o sulle caratteristiche personali
- Monitoraggio e valutazione delle prestazioni: sistemi per il monitoraggio e la valutazione delle prestazioni e del comportamento dei lavoratori
Implicazione pratica: Praticamente ogni strumento di IA utilizzato nel dipartimento Risorse Umane per screening dei CV, colloqui automatizzati, assegnazione dei turni basata su algoritmi o valutazione delle prestazioni rientra in questa categoria.
5. Accesso e fruizione di servizi essenziali
Sistemi di IA destinati a essere utilizzati per valutare l'ammissibilita delle persone fisiche a prestazioni e servizi di assistenza pubblica essenziali, compresi i servizi sanitari.
Scoring creditizio: sistemi per valutare il merito creditizio delle persone fisiche, ad eccezione dei sistemi utilizzati per individuare frodi finanziarie.
Valutazione del rischio e determinazione dei premi nelle assicurazioni vita e malattia.
Sistemi per la valutazione e classificazione delle chiamate di emergenza o per la determinazione delle priorita nell'invio dei servizi di primo soccorso.
Implicazione pratica: Banche, compagnie assicurative, enti pubblici, ospedali e servizi di emergenza devono verificare con attenzione i propri sistemi di IA.
6. Attivita di contrasto
Sistemi utilizzati dalle autorita di contrasto (o per loro conto) per:
- Valutare il rischio di una persona di diventare vittima di reati
- Fungere da poligrafi o strumenti analoghi
- Valutare l'affidabilita delle prove nel corso delle indagini
- Valutare il rischio di recidiva o di commissione di reati
- Profilazione nel corso di indagini penali
- Analisi criminale su grandi dataset
Implicazione pratica: Questa categoria riguarda principalmente le forze dell'ordine, ma anche i fornitori tecnologici che sviluppano soluzioni per il settore.
7. Gestione della migrazione, asilo e controllo delle frontiere
Sistemi utilizzati dalle autorita competenti per:
- Poligrafi e strumenti analoghi
- Valutazione dei rischi per la sicurezza e dei rischi di immigrazione irregolare
- Esame delle domande di asilo, visto e permesso di soggiorno e dei relativi reclami
- Rilevamento, riconoscimento o identificazione di persone fisiche nel contesto della migrazione
8. Amministrazione della giustizia e processi democratici
Sistemi destinati a essere utilizzati da autorita giudiziarie o per loro conto per:
- Assistere nella ricerca e interpretazione dei fatti e del diritto
- Applicare la legge a fatti concreti
- Essere utilizzati nella risoluzione alternativa delle controversie
Sistemi destinati a influenzare l'esito di un'elezione o di un referendum, o il comportamento di voto delle persone fisiche, ad eccezione degli strumenti utilizzati per organizzare, ottimizzare o strutturare campagne politiche.
L'eccezione dell'Articolo 6, paragrafo 3
Non tutti i sistemi che rientrano nelle categorie dell'Allegato III sono automaticamente ad alto rischio. L'Articolo 6, paragrafo 3, prevede un'eccezione importante: un sistema di IA non e considerato ad alto rischio se non pone un rischio significativo di danno per la salute, la sicurezza o i diritti fondamentali delle persone fisiche.
In particolare, un sistema non e ad alto rischio se:
- E destinato a svolgere un compito procedurale limitato
- E destinato a migliorare il risultato di un'attivita umana gia completata
- E destinato a rilevare schemi decisionali senza sostituire o influenzare la valutazione umana
- E destinato a svolgere un compito preparatorio rispetto a una valutazione rilevante
Tuttavia, questa eccezione non si applica quando il sistema di IA esegue la profilazione di persone fisiche.
I fornitori che si avvalgono di questa eccezione devono documentare la valutazione e registrarla nella banca dati dell'UE prima dell'immissione sul mercato (Articolo 6, paragrafo 4).
Requisiti per i sistemi ad alto rischio: sintesi operativa
Una volta determinato che un sistema e ad alto rischio, si applicano i seguenti requisiti:
| Requisito | Articolo | Descrizione |
|---|---|---|
| Sistema di gestione del rischio | Art. 9 | Processo continuo di identificazione, analisi e mitigazione dei rischi |
| Governance dei dati | Art. 10 | Qualita, rappresentativita e assenza di bias nei dataset |
| Documentazione tecnica | Art. 11 | Documentazione completa secondo l'Allegato IV |
| Registrazione (logging) | Art. 12 | Tracciabilita automatica del funzionamento |
| Trasparenza | Art. 13 | Istruzioni d'uso chiare per gli utilizzatori |
| Sorveglianza umana | Art. 14 | Possibilita di intervento e controllo umano |
| Accuratezza e robustezza | Art. 15 | Livelli appropriati di performance e sicurezza |
| Sistema di gestione della qualita | Art. 17 | Procedure documentate per la conformità |
| Valutazione della conformità | Art. 43 | Verifica della conformità prima dell'immissione sul mercato |
| Registrazione nella banca dati UE | Art. 49 | Registrazione pubblica del sistema |
| Marcatura CE | Art. 48 | Apposizione della marcatura di conformità |
Come procedere: passi pratici
Per i fornitori di sistemi di IA
- Mappate i vostri sistemi rispetto all'Allegato III e all'Allegato I
- Verificate l'eccezione dell'Articolo 6, paragrafo 3, e documentatela se applicabile
- Implementate il sistema di gestione del rischio (Art. 9) come primo passo
- Preparate la documentazione tecnica secondo l'Allegato IV
- Pianificate la valutazione della conformità secondo l'Articolo 43
Per gli utilizzatori di sistemi di IA
- Chiedete ai vostri fornitori se i sistemi che utilizzate sono classificati come ad alto rischio
- Verificate autonomamente la classificazione rispetto all'Allegato III
- Preparatevi agli obblighi dell'Articolo 26: monitoraggio, conservazione dei log, FRIA
- Formate il personale sull'utilizzo corretto dei sistemi
Effettuate subito la Valutazione gratuita di conformità IA per verificare la classificazione dei vostri sistemi e identificare le azioni prioritarie.
FAQ - Domande frequenti
Q: Il mio chatbot aziendale e un sistema ad alto rischio?
A: Nella maggior parte dei casi, no. Un chatbot utilizzato per il servizio clienti rientra tipicamente nella categoria a rischio limitato, con il solo obbligo di informare gli utenti che stanno interagendo con un sistema di IA (Art. 50). Tuttavia, se il chatbot viene utilizzato per prendere decisioni relative all'accesso a servizi essenziali (ad esempio, nel settore assicurativo o sanitario), potrebbe rientrare nell'alto rischio.
Q: I sistemi di IA utilizzati internamente dall'azienda sono coperti?
A: Si. Il Regolamento si applica indipendentemente dal fatto che il sistema sia rivolto ai clienti o utilizzato internamente. Un sistema di IA per lo screening dei CV o per la valutazione delle prestazioni dei dipendenti e ad alto rischio anche se non e mai esposto al pubblico.
Q: Cosa succede se classifico erroneamente il rischio del mio sistema?
A: Una classificazione errata puo comportare sanzioni. Se un sistema ad alto rischio viene trattato come a basso rischio, l'organizzazione e esposta a sanzioni fino a 15 milioni di euro o il 3% del fatturato mondiale (Art. 99). E fondamentale condurre una classificazione rigorosa e documentata.
Q: I modelli di IA generativa (come ChatGPT) sono sistemi ad alto rischio?
A: I modelli di IA per finalita generali (GPAI) sono soggetti a requisiti specifici del Titolo V, non alla classificazione dell'Allegato III. Tuttavia, se un modello GPAI viene integrato in un sistema che rientra nelle categorie dell'Allegato III, il sistema risultante e ad alto rischio. Ad esempio, un LLM utilizzato per lo screening automatico dei CV e ad alto rischio.
Q: L'Allegato III puo essere aggiornato?
A: Si. La Commissione Europea ha il potere di aggiornare l'Allegato III mediante atti delegati (Articolo 7), aggiungendo nuovi casi d'uso ad alto rischio quando necessario, purche il sistema presenti un rischio equivalente o superiore a quelli gia elencati.
Q: Come posso iniziare a verificare i miei sistemi?
A: Matproof offre strumenti di classificazione automatizzata che vi guidano attraverso la valutazione dei vostri sistemi di IA. Potete iniziare immediatamente con una Prova gratuita per ottenere una panoramica chiara dei vostri obblighi.
Conclusione
La classificazione dei sistemi di IA come ad alto rischio e il fondamento di tutto il percorso di conformità al Regolamento europeo sull'IA. Un errore in questa fase puo portare a investimenti insufficienti nella conformità o, al contrario, a costi eccessivi per sistemi che non lo richiedono.
L'elenco dell'Allegato III e ampio e copre settori che vanno dalla biometria all'occupazione, dalla finanza all'istruzione. Se la vostra organizzazione opera in uno di questi ambiti e utilizza sistemi di IA per prendere o supportare decisioni che riguardano le persone, e altamente probabile che dobbiate rispettare i requisiti per i sistemi ad alto rischio.
Il consiglio e di agire ora: mappate i vostri sistemi, classificateli e iniziate a costruire la documentazione richiesta. Il 2 agosto 2026 non e cosi lontano come sembra.