-
Blog
01 Aprile 2022
Intelligenza Artificiale: benefici e rischi
Le leggi sono sufficienti ad arginarne i rischi?
L’intelligenza artificiale può portare innumerevoli benefici, ma anche rischi sopratutto con la sua introduzione su larga scala.
Per questo motivo è necessaria una regolamentazione efficace, capace di arginare le minacce e diffondere un utilizzo affidabile e sicuro delle nuove tecnologie. Di seguito l’evoluzione del quadro normativo europeo e italiano.
I rischi causati dalla più estesa e massiva applicazione dell’Intelligenza Artificiale (IA) – l’erosione della privacy, il dilagare delle fake news e della disinformazione e la sorveglianza intrusiva fino alla perdita di posti di lavoro causata dall’automazione e ad un policy making distorto, giusto per citarne alcuni – hanno reso necessaria la definizione di una corretta governance volta a garantire la sicurezza di queste nuove tecnologie.
Il primo e più intuitivo passaggio è stato quindi l’introduzione e il rafforzamento di leggi e regolamenti ad hoc. In ambito europeo, la Commissione ha presentato nell’aprile 2018 una Strategia Europea sull’Intelligenza Artificiale che definisce gli obiettivi continentali in materia. Innanzitutto, incrementare la capacità tecnologica e industriale europea e raggiungere un’adozione trasversale dell’IA tra tutti i settori economici, sia privati che pubblici. Assicurare un quadro di utilizzo delle tecnologie eticamente e giuridicamente appropriato. Prepararsi ai cambiamenti socioeconomici potenzialmente arrecati dall’applicazione delle nuove soluzioni tecnologiche, come la possibile perdita di posti di lavoro. Pochi mesi dopo, nel dicembre 2018, la Commissione e gli Stati Membri hanno adottato il Piano Coordinato sull’Intelligenza Artificiale, volto a rafforzare le sinergie tra stati e istituzioni europee. Questo documento, in particolare, promuoveva l’adozione da parte dei governi nazionali di una strategia nazionale IA.
Nel febbraio 2020, la Commissione ha presentato il Libro Bianco sull’Intelligenza Artificiale: un approccio europeo all’eccellenza e alla fiducia, finalizzato da un lato a sostenere l’adozione dell’IA, dall’altro ad affrontarne i rischi connessi.
All’interno del Libro Bianco si trova il Programma Adopt AI, un nuovo progetto mirato specificamente a rafforzare l’adozione dell’Intelligenza Artificiale all’interno del sistema degli appalti pubblici. Nel dettaglio, il programma sostiene il settore pubblico nel recepire i benefici e le possibili sinergie derivanti dalla diffusione di servizi affidabili, da un’IA incentrata sulla società e sulla sostenibilità. Il Programma, quindi, passa dalla definizione del problema alla formulazione di possibili soluzioni, anche instaurando dialoghi tra i settori coinvolti per costruire una strategia quanto più tailor-made rispetto alle loro diverse esigenze.
Infine, nell’aprile 2021, la Commissione ha approvato un Regolamento contenente una serie di azioni per promuovere l’eccellenza nell’IA e delle regole per garantire l’affidabilità della tecnologia. In particolare, obiettivi contenuti nel Regolamento sono:
- assicurare che i sistemi di IA immessi nel mercato europeo siano sicuri e rispettino la normativa vigente;
- assicurare la certezza del diritto per facilitare investimenti e innovazione;
- migliorare l’applicazione della normativa sui diritti fondamentali e requisiti di sicurezza;
- facilitare lo sviluppo di un mercato unico per applicazioni IA lecite, sicure e affidabili e prevenire la frammentazione del mercato.
L’approccio degli Stati Membri all’IA varia in base alle loro priorità strategiche e al budget a disposizione.
Tuttavia, tutti gli Stati – chi prima, chi dopo – hanno sviluppato piani ambiziosi per lo sviluppo e la diffusione di tecnologie IA.
Inoltre, la maggior parte dei governi sta promuovendo corsi di formazione in ambito digitale, al fine di aumentare le digital skills dei lavoratori.
Infine, sono in via di sviluppo dei centri di competenza nazionali in grado di favorire la ricerca e promuovere la creazione di partenariati pubblici-privati.
In Italia, il MISE ha pubblicato nell’ottobre 2020, la Bozza di Strategia Nazionale per l’Intelligenza Artificiale, basata sulle proposte avanzate nel luglio dello stesso anno da un gruppo di esperti in materia. Punto centrale della strategia – in perfetta coerenza con il quadro europeo di cui sopra – è indubbiamente la formazione.
Sono stati quindi previsti corsi scolastici per promuovere l’acquisizione delle competenze digitali e programmi universitari per colmare il gap di competenze nel settore. La Strategia propone inoltre di promuovere corsi di formazione specializzati sia presso le PMI che presso la Pubblica Amministrazione, incrementando ad esempio la spesa pubblica e il trasferimento di tecnologie verso le imprese più piccole del nostro tessuto produttivo. Pone infine obiettivi ambiziosi in termini di networking, con la creazione di ben 8 Centri di Competenza e 12 Cluster Tecnologici per la cooperazione e lo scambio di conoscenze.
Nonostante l’introduzione di leggi e normative costituisca sicuramente uno step necessario per garantire la sicurezza delle nuove tecnologie, non è per forza sufficiente ad arginarne i rischi.
Infatti, sembra molto difficile – da parte dei regolamentatori – scrivere normative efficaci dato che esse richiedono conoscenza dettagliata e approfondita della materia.
È quindi necessario, oltre che operare sotto un profilo legale-regolamentare, agire sulle tecnologie stesse, aumentandone la sicurezza (ad esempio, affrontando questioni tecniche nella loro progettazione e funzionamento e sottoponendo questi strumenti a regolari controlli) e adottare principi etici e linee guida per lo sviluppo e l’utilizzo delle tecnologie, la cosiddetta “Etica dell’IA”, un insieme di valori e principi che impegnano standard ampiamente accettati per guidare la condotta morale nello sviluppo e nell’utilizzo dei sistemi di IA.
Ti è piaciuto questo articolo?