Dopo dibattiti, modifiche e revisioni, il Parlamento Europeo si è mosso per una regolamentazione ufficiale dell'IA
L’intelligenza artificiale, negli ultimi anni, è diventata un importante acceleratore per la trasformazione digitale ormai in atto su scala globale. Tuttavia, la massiva adozione di strumenti basati sull’A.I e gli sviluppi legati a modelli sempre più avanzati, hanno iniziato a far vacillare l’entusiasmo, lasciando spazio a dubbi e timori. Intanto, l'Europa ha deciso: la regolamentazione è stata ufficialmente approvata.
Il 13 marzo 2024 il parlamento europeo ha finalmente approvato l’AI Act - il primo regolamento al mondo dedicato all’intelligenza artificiale.
Con 523 voti a favore e solo 46 contrari, l’Unione Europea ha terminato l’iter legislativo dedicato ai campi di applicazione e alla protezione dei diritti fondamentali dei cittadini.
Fino a maggio 2024 l’AI Act non verrà promulgato, poiché è necessario tradurre il testo in 24 lingue. Inoltre, è altresì fondamentale che il regolamento previsto si adegui alle normative dei diversi paesi in EU.
Dall’IA testo, in primis, emerge la garanzia che qualsiasi prodotto o servizio destinato al mercato e che sfrutti l’intelligenza artificiale venga sviluppato e diffuso in modo sicuro, trasparente e nel rispetto dei diritti fondamentali dell’UE.
Ma ancor più interessante è la definizione di “sistema di intelligenza artificiale”: un sistema automatizzato che può funzionare su diversi livelli di autonomia e che, in base agli input ricevuti, può generare contenuti o previsioni in grado di influenzare spazi fisici o virtuali, così come descritto nell’articolo 3 del regolamento.
Bisogna anche considerare che la strada verso l’adozione di una normativa ufficiale volta a ridurre i rischi individuati per l’AI e alla tutela dei cittadini, è ancora lontana. Infatti, una volta pubblicato il regolamento, saranno necessari due anni per far sì che entri in vigore integralmente.
Tra l’altro, sono previste sanzioni per chi non rispetta quanto emanato dall’AI Act e queste possono variare in base al fatturato e alla tipologia di violazione effettuata.
Ma non solo: è prevista anche la rimozione del prodotto/servizio dal mercato in caso di mancata conformità.
Queste sanzioni dovrebbero inibire il pubblico coinvolto - sviluppatori, produttori, distributori, aziende e start-up innovative presenti in Europa - e spingerlo alla produzione di soluzioni innovative e funzionali che tutelino a pieno i diritti dei cittadini eu.
L’AI Act - una proposta di regolamentazione dell'Intelligenza Artificiale mossa dal Parlamento Europeo - è stata promossa ufficialmente tra l’8 e il 9 dicembre 2023 ed ha rappresentato una prima vera e propria svolta nell’ambito dell’intelligenza artificiale, soprattutto secondo la panoramica attuale presentata nel regolamento.
Ma procediamo per gradi. L’uso - ormai diventato quotidiano - e sempre più comune di modelli e sistemi basati sull’Intelligenza Artificiale ha fatto sì che iniziassero a diffondersi riflessioni di natura etica su larga scala.
In effetti sappiamo che, per sua natura, l’intelligenza artificiale presenta delle peculiarità distintive:
Ad oggi, possiamo fare affidamento su modelli di intelligenza artificiale che analizzano i dati in tempo reale con l’obiettivo di offrire analisi predittive, ma anche su sistemi con cui interagire in prima persona. Sì, abbiamo pensato tutti a Chat-GPT: un fedele compagno che ha (quasi) sempre una risposta per ogni quesito.
I dubbi e i timori sono sorti nel momento in cui l'intero panorama scientifico - e non solo - si è reso conto delle potenzialità insite nell’intelligenza artificiale quando addestrata con cura ed attenzione.
La conseguenza diretta a queste preoccupazioni ha condotto, quindi, la comunità europea ad interrogarsi circa una prima possibile regolamentazione che dovrà garantire l'incolumità dei cittadini, una protezione dei propri diritti e della privacy, senza influire negativamente sui test e gli sviluppi in corso.
Tra gli interventi legati alla questione AI, rischi e opportunità ha colpito la lettera di Elon Musk pubblicata dal Future of Life Institute. Il CEO di Tesla ha chiesto esplicitamente uno stop di almeno sei mesi alle sperimentazioni sui sistemi di intelligenza artificiale - proprio come Chat GPT - mettendo in evidenza i molteplici pericoli legati a strumenti così potenti.
Elon Musk sottolinea come i trend attuali dimostrino una mancata osservazione dei principi di Asilomar. Di cosa si tratta? Di un manifesto che, firmato nel 2017, coinvolse più di 2000 esperti, ricercatori e tecnici ed ebbe come obiettivo quello di offrire principi legati ad un uso etico, consapevole e responsabile dell’intelligenza artificiale.
Le preoccupazioni rivolte da Musk sono le stesse che, in realtà, sembrano attanagliare un numero sempre più ampio di persone e riguardano il modo in cui gli strumenti di intelligenza artificiale stanno inondando i nostri canali informativi e di comunicazione con contenuti fake.
Non solo Musk, ma anche personalità come Gary Marcus e Andrew Young hanno esposto le proprie tesi riguardo i pericoli a cui andiamo incontro sviluppando modelli di intelligenza artificiale sempre più potenti.
C’è davvero da preoccuparsi? Probabilmente no. Infatti, molti dei rischi presentati da tali figure sono perlopiù inverosimili e rientrano in quello che, ad oggi, conosciamo come lungotermismo. Si tratta di una visione secondo cui l’avanzamento tecnologico poterà a disastrosi rischi per le generazioni future.
Numerose figure e personalità si sono espresse al riguardo, come Yann Lecun - uno dei massimi esperti di deep learning - per tentare di sovvertire questi scenari catastrofici riguardanti i possibili sviluppi futuri dell'intelligenza artificiale. In breve, esperti come Lecun intendono sottolineare come tali modelli siano addestrati da noi esseri umani: avendo accesso ad un ampio database da cui creano schemi ricorrenti, riescono ad offrire risposte pertinenti e consapevoli. Ovviamente, ciò non rende questi robot o sistemi realmente consenzienti.
L’Europa ha avvertito la necessità di regolamentare l’intelligenza artificiale per ragioni che non hanno nulla a che fare con scenari che vedono l’AI prendere il sopravvento sull’umanità. Infatti, porre delle regole in questo ambito significa semplicemente tutelare e proteggere i diritti e la privacy dei cittadini.
L’AI Act si basa su un approccio risk based e ha come obiettivo quello di rendere le “decisioni” degli strumenti di AI imparziali, garantendo benessere ed equità sociale ma anche ambientale.
Sono stati individuati quattro livelli di rischio:
L’approvazione ufficiale dell’AI Act è avvenuta in quest’ultima parte del 2023. Infatti, l’8 dicembre è stato raggiunto un accordo provvisorio in Europa che conferma l’approccio risk-based che muoverà il regolamento, prevedendo anche sanzioni in caso di violazioni.
Il regolamento europeo per l’intelligenza artificiale prevede dei diritti - o meglio ancora, delle tutele - per i cittadini europei che faranno uso di strumenti basati sull’intelligenza artificiale. Un punto molto importante discusso durante la discussione - durata ben 36 ore - ha riguardato il diritto d’autore.
Infatti, tale regolamentazione dovrebbe prevedere due obblighi per coloro che addestrano e forniscono tali sistemi di IA:
Tale regolamento europeo riguarderà, quindi, anche delle manovre per rafforzare la protezione del copyright, promuovendo maggiore trasparenza sui documenti utilizzati durante il training e, ovviamente, sui contenuti finali generati.
Oltre a quanto descritto in precedenza, ovvero alle tutele previste per i cittadini relative a discriminazione e protezione della privacy, l’AI ACT prevederà anche il divieto di sistemi che avranno impatti negativi sull’ambiente.
Per favorire al meglio l’adozione dell’AI Act da parte delle parti interessate, la Commissione Europea ha deciso di accompagnare tale transizione con l’AI Pact. Questo nasce come progetto di supporto il cui scopo è offrire tutti gli strumenti e le competenze necessarie a tutti gli attori coinvolti - da startup a servizi di PA, fino a giungere ad enti governativi - per un uso consapevole, responsabile e vantaggioso di queste nuove tecnologie fondate sull’intelligenza artificiale.
Anche l’Italia si sta rimboccando le maniche per far sì che le strategie applicate possano condurre ad una massimizzazione dei benefici legati all’adozione di tecnologie basate sull’i.a e ad una riduzione dei possibili rischi.
Leggiamo, infatti, sul sito di AGID - in relazione alla notizia della nascita di un Comitato dedicato alla progettazione di una strategia nazionale per l’intelligenza artificiale - che c’è bisogno di implementare tali tecnologie in modo che contribuiscano al benessere economico e tecnologico del paese, ma anche sociale.
Oltre a lavorare per diffondere un uso consapevole e responsabile dell’intelligenza artificiale in Italia, il Comitato - costituito da tredici membri - si sta dedicando alla realizzazione di un piano di regolamentazione italiano per l’i.a.
Tra i primi contributi diffusi in materia, abbiamo il libro bianco (PDF disponibile qui), curato dalla Task Force IA dell’AGID: un documento disponibile gratuitamente online realmente importante.
Infatti, si tratta del primo documento dedicato all’intelligenza artificiale che si rivolge alle pubbliche amministrazioni italiane e che ha come obiettivo quello di rendere più comprensibile tale argomento.
Scaricando il libro bianco, si scopriranno quali sono le opportunità legate allo sviluppo e all’adozione di queste nuove tecnologie, ma ancor di più, sarà possibile cogliere una serie di raccomandazioni dedicate al settore pubblico e alle modalità migliori per ridurre al massimo i pericoli e le criticità associate all’intelligenza artificiale.
Questi sono dei primi e chiari segnali di come, anche l’Italia, si sta occupando - o, per meglio dire, preoccupando - di porre le basi per far sì che l’intelligenza artificiale si integri nel contesto sociale, economico, culturale e tecnologico in maniera etica e graduale nel tempo.
In conclusione, se l'Europa sta dimostrando un forte impegno per una responsabilizzazione non limitante verso lo sviluppo e l’adozione di massa di strumenti di intelligenza artificiale, anche l’Italia sta dimostrando la volontà di regolamentare l’i.a, impegnandosi per far sì che le PA abbiano le competenze necessarie per integrare tali strumenti e metterli al servizio dei cittadini.
Restiamo in attesa di comprendere come l'Italia abbraccerà le novità introdotte dall'approvazione dell'IA Act!
Non è facile definire, già da ora, i possibili risvolti dell’applicazione, su scala internazionale, della prima legge trasversale sull’intelligenza artificiale.
Gli effetti saranno sicuramente visibili sul lungo termine, ma ciò non toglie un dato di fatto tanto evidente quanto importante: l’Europa è stato il primo paese al mondo a lavorare per garantire degli standard di riferimento per lo sviluppo di sistemi, prodotti e soluzioni basati sull’IA.
Questo fa sì che venga percepita la spinta all’innovazione che l’Europa intende supportare attraverso delle regole che mirano alla creazione di un ambiente sicuro e trasparente, in cui si garantisce la tutela dei cittadini.
Inoltre, l’AI Act potrebbe favorire la creazione di un mercato unico, dinamico e competitivo, in cui ci sono pari opportunità di crescita.
Infine, è evidente che l’approccio adottato dall’Europa abbia sancito solo un primo passo verso delle interrogazioni più profonde circa le opportunità e i rischi associati all’Intelligenza Artificiale. Pertanto, è lecito aspettarsi che l’approvazione del regolamento europeo possa ispirare gli altri paesi.
Ad oggi, quindi, i pareri degli esperti dell’eurozona sembrano muoversi verso la stessa direzione: l’Europa, con molta ambizione e il giusto tempismo, ha saputo approfittare dell’attenzione e dell’exploit che l’IA sta vivendo.
Con dibattiti ancora aperti e colpi di scena che possono ribaltare la situazione da un momento all’altro, non ci resta altro che attendere il reale impatto che il primo regolamento europeo sull’intelligenza artificiale avrà sui professionisti del settore, sulle ricerche e, ovviamente, sui cittadini.