• “Artificial Intelligence Act”, la legge sull’intelligenza artificiale per tutelare i cittadini europei

    Blog

Home   |   Blog   |   “Artificial Intelligence Act”, la legge sull’intelligenza artificiale per tutelare i cittadini europei


05 Aprile 2024

“Artificial Intelligence Act”, la legge sull’intelligenza artificiale per tutelare i cittadini europei

“Artificial Intelligence Act”, la legge sull’intelligenza artificiale per tutelare i cittadini europei

Lo scorso 13 marzo, il Parlamento Europeo ha approvato l’Artificial Intelligence Act (“AI Act”), il primo quadro giuridico a livello mondiale in materia di Intelligenza Artificiale (IA). 

Come si legge nel Comunicato Stampa pubblicato sul sito istituzionale del Parlamento Europeo, il suo obiettivo è quello di proteggere i diritti fondamentali dei cittadini europei, la democrazia, lo Stato di diritto e la sostenibilità ambientale delle tecnologie, promuovendo nel contempo l’innovazione e assicurando all’Europa un ruolo guida nel settore. Inoltre, la Legge mira a fornire agli sviluppatori e agli operatori del settore tecnologico requisiti e obblighi chiari per quanto riguarda gli usi dell’IA. 

Infatti, le norme contenute nella Legge stabiliscono obblighi per l’IA sulla base dei possibili rischi e del suo livello di impatto, rendendo fuori legge alcune sue applicazioni che minacciano i diritti dei cittadini. 

Mentre la maggior parte dei sistemi di IA non comporta rischi per i cittadini e, anzi, possono contribuire a risolvere sfide sociali complesse, alcuni usi della stessa creano rischi che devono essere correttamente affrontati per evitare risultati indesiderati.

Ad esempio, i sistemi di categorizzazione biometrica basati su caratteristiche sensibili e l’estrapolazione indiscriminata di immagini facciali dalle registrazioni dei sistemi di telecamere a circuito chiuso.

Alcune eccezioni saranno previste per le forze dell’ordine, che comunque non potranno fare ricorso ai sistemi di identificazione biometrica tranne in alcuni casi espressamente normati (es. in caso di ricerca di persona scomparsa, per la prevenzione di un attacco terroristico, etc.). 

Sono anche previsti obblighi chiari per i sistemi IA “ad alto rischio”, ossia quelli che potrebbero provocare danni alla salute, alla sicurezza, all’ambiente, alla democrazia e allo Stato di diritto nonché che potrebbero ledere i diritti fondamentali.

Rientrano in questa categoria i sistemi legati alle infrastrutture critiche, all’istruzione e formazione professionale, all’occupazione, alla giustizia, ai servizi pubblici e privati di base (es. assistenza sanitaria, banche, etc.).

Per questi sistemi vige l’obbligo di valutare e ridurre i rischi, mantenere appositi registri d’uso, essere trasparenti e accurati e garantire la sorveglianza umana.  

Inoltre, in generale, i sistemi IA dovranno rispettare determinati requisiti di trasparenza e rispettare le norme UE sul diritto d’autore. Inoltre, le immagini e i contenuti audio / video artificiali o manipolati (c.d. deep fake) dovranno essere chiaramente etichettati come tali. 

L’Ufficio Europeo per l’IA, istituito nel febbraio 2024 all’interno della Commissione, ha il compito di supervisionare l’applicazione e l’attuazione della Legge. Si impegnerà anche a promuovere la collaborazione, l’innovazione e la ricerca su queste tecnologie, nonché a favorire il dialogo internazionale e la cooperazione, riconoscendo la necessità di un allineamento globale sulla governance dell’IA. 

Per quanto concerne i prossimi passi, la Legge dovrà essere ancora sottoposta alla verifica formale dei giuristi-linguisti e dovrebbe venire adottato definitivamente prima della fine della legislatura (c.d. procedura di rettifica).

Dovrà essere poi formalmente approvata anche dal Consiglio.

Entrerà quindi in vigore n. 20 giorni dopo la pubblicazione nella Gazzetta Ufficiale ed inizierà ad applicarsi n. 24 mesi dopo l’entrata in vigore, salvo informazioni più specifiche per alcune fattispecie. 

Ti è piaciuto questo articolo?