AI Act

L’AI Act, o Regolamento sull’Intelligenza Artificiale, è un nuovo quadro normativo europeo che stabilisce regole per lo sviluppo, la commercializzazione e l’utilizzo dell’intelligenza artificiale (IA) nell’Unione Europea.

Obiettivo primario dell’AI Act è quello di garantire che l’Intelligenza Artificiale sia sviluppata e utilizzata in modo sicuro, responsabile ed etico, proteggendo i diritti e la sicurezza dei cittadini e promuovendo l’innovazione e la competitività.

Categorie di rischio secondo l’AI Act

Il Regolamento classifica i sistemi di intelligenza artificiale in base al loro livello di rischio:

Categoria IA inaccettabile

Sono vietati i sistemi di IA che presentano un rischio inaccettabile per la sicurezza, la salute, la dignità umana o i diritti fondamentali. Rientrano in questa categoria, ad esempio, i sistemi di intelligenza artificiale che utilizzano il riconoscimento facciale per la sorveglianza di massa o i sistemi di intelligenza artificiale che generano contenuti di incitamento all’odio o alla violenza.

Categoria IA ad alto rischio

I sistemi di IA ad alto rischio richiedono una conformità rigorosa a specifici requisiti normativi prima di poter essere immessi sul mercato. Rientrano in questa categoria, ad esempio, i sistemi di intelligenza artificiale utilizzati in contesti come l’assistenza sanitaria, il trasporto o la giustizia penale.

Categoria IA a rischio limitato

I sistemi di IA a rischio limitato non sono soggetti a requisiti specifici, ma devono comunque rispettare i principi generali stabiliti dall’AI Act.

Obblighi dei fornitori di sistemi di IA ad alto rischio

Prima di immettere sul mercato UE un sistema di IA ad alto rischio o di metterlo in servizio in altro modo, i fornitori devono sottoporlo a una valutazione di conformità. Ciò consentirà loro di dimostrare che il loro sistema è conforme ai requisiti obbligatori per un’IA affidabile (ad esempio qualità dei dati, documentazione e tracciabilità, trasparenza, supervisione umana, accuratezza, sicurezza informatica e robustezza). Questa valutazione deve essere ripetuta se il sistema o il suo scopo vengono modificati in modo sostanziale.

I sistemi di IA che sono componenti di sicurezza di prodotti coperti dalla legislazione settoriale dell’Unione, saranno sempre considerati ad alto rischio quando soggetti a valutazione di conformità di terze parti ai sensi di tale legislazione settoriale. Inoltre, per i sistemi biometrici è sempre richiesta una valutazione di conformità di terze parti.

I fornitori di sistemi di IA ad alto rischio dovranno anche implementare sistemi di gestione della qualità e del rischio per garantire la loro conformità ai nuovi requisiti e ridurre al minimo i rischi per gli utenti e le persone interessate, anche dopo che un prodotto è stato immesso sul mercato.

I sistemi di IA ad alto rischio implementati da autorità pubbliche o enti che agiscono per loro conto dovranno essere registrati in un database pubblico dell’UE, a meno che tali sistemi non siano utilizzati per l’applicazione della legge e la migrazione. Questi ultimi dovranno essere registrati in una parte non pubblica del database che sarà accessibile solo alle autorità di vigilanza competenti.

Le autorità di vigilanza del mercato supporteranno il monitoraggio post-commercializzazione tramite audit e offrendo ai fornitori la possibilità di segnalare incidenti gravi o violazioni degli obblighi in materia di diritti fondamentali di cui sono venuti a conoscenza. Qualsiasi autorità di vigilanza del mercato può autorizzare l’immissione sul mercato di specifici sistemi di IA ad alto rischio per motivi eccezionali.

In caso di violazione, i requisiti consentiranno alle autorità nazionali di avere accesso alle informazioni necessarie per verificare se l’uso del sistema di IA sia conforme alla legge.

Per saperne di più sull’AI Act