Venerdì 8 dicembre 2023 i negoziatori del Parlamento e del Consiglio hanno raggiunto un accordo sulla legge sull’intelligenza artificiale. Questo regolamento mira a garantire che i diritti fondamentali, la democrazia, lo stato di diritto e la sostenibilità ambientale siano protetti dall’IA ad alto rischio, stimolando al contempo l’innovazione e rendendo l’Europa leader nel settore.
Data significativa, dunque, per lanciare un nuovo blog curato dal giornalista Daniele Magrini: “IA, fatti e misfatti”, pillole dal libro “Il potere delle macchine sapienti – Intelligenza Artificiale, informazione, democrazia” (primamedia editore).
“Le norme stabiliscono obblighi per l’IA in base ai suoi rischi potenziali e al livello di impatto”. Così l’ufficio stampa dell’Unione Europea, due anni fa, annunciava la fine delle febbrili trattive all’interno delle istituzioni comunitarie e la nascita dell’AI Act, la prima legge al mondo sull’Intelligenza Artificiale entrata in vigore dopo gli ulteriori passaggi procedurali, il 1° agosto 2024.
Oggi, soprattutto a fronte delle forti pressioni americane all’insegna delle deregulation, e alla lobby delle Big Tech guidata da Meta di Mark Zuckerberg, l’UE ha varato un pacchetto Omnibus in cui le stringenti regole dell’AI Act sono state non solo alleggerite ma anche posticipate di sedici messi nell’applicazione. Giova, quindi, ripercorrere il processo che ha portato all’AI Act.
******
L’Unione Europea può fregiarsi di aver varato la prima legge al mondo sull’Intelligenza artificiale, l’AI Act. Dal punto di vista comunicativo il primato regge. Ma prima di addentrarsi nei contenuti legislativi, giova soffermarsi sulle tappe che hanno consentito di giungere al traguardo al termine di un’estenuante maratona che già nella lunghezza dei tempi evidenzia limiti di sostanza. Nell’aprile 2018 la Commissione dell’Unione Europea emana una comunicazione sull’Intelligenza artificiale. A giugno si insedia un gruppo di 52 esperti per contribuire al percorso avviato. Il 7 dicembre 2018 la Commissione presenta un piano coordinato preparato con gli Stati membri per promuovere lo sviluppo e l’uso dell’IA in Europa.
Dopo un ulteriore anno di confronti, assemblee e redazioni di documenti, il 19 febbraio 2020 la Commissione Europea pubblica il “Libro Bianco sull’Intelligenza artificiale” dove sono sintetizzate le finalità che poi saranno alla base anche dell’AI Act. Il 21 aprile 2021 l’elaborazione fa un salto di qualità, giungendo al primo atto politico di rilievo: la Commissione propone il quadro giuridico in materia di IA. Si tratta della classificazione che rappresenterà l’intelaiatura dell’AI Act. Altra tappa istituzionale importante: il 6 dicembre 2022 il Consiglio adotta la sua posizione comune (“orientamento generale”) relativa alla normativa sull’intelligenza artificiale. Sei mesi dopo, il 14 giugno 2023 a Strasburgo, arriva l’approvazione dell’AI Act da parte del Parlamento Europeo, con 499 voti favorevoli, 28 contrari e 93 astenuti. Tappa significativa, seppure di una procedura parallela all’AI Act, è l’approvazione del Data Act, il 9 novembre 2023.
La nuova legislazione è approvata dal Parlamento Europeo con 481 a favore, 31 contrari e 71 astensioni. L’8 dicembre 2023, i negoziatori del Parlamento e del Consiglio hanno raggiunto un accordo sulla legge sull’intelligenza artificiale, che viene approvata nella sua stesura definitiva dal Parlamento Europeo il 13 marzo 2024. Il regolamento mira a promuovere lo sviluppo e la diffusione responsabili dell’intelligenza artificiale nell’UE. La legge sull’IA introduce un quadro uniforme in tutti i paesi dell’UE, basato su una definizione lungimirante di IA e su un approccio basato sul rischio così classificato:
- Rischio minimo: la maggior parte dei sistemi di IA, come i filtri spam e i videogiochi che sfruttano l’IA, non sono soggetti ad alcun obbligo ai sensi del regolamento, ma le imprese possono adottare volontariamente codici di condotta aggiuntivi.
- Rischio specifico per la trasparenza: i sistemi come i Chatbot devono informare chiaramente gli utenti che stanno interagendo con una macchina, mentre alcuni contenuti generati dall’IA devono essere etichettati come tali.
- Rischio alto: i sistemi di IA ad alto rischio, come i software medici basati sull’IA o i sistemi di IA utilizzati per la selezione e l’assunzione di personale, devono rispettare requisiti rigorosi, comprese misure di attenuazione dei rischi, elevata qualità delle serie di dati, informazioni chiare per gli utenti, sorveglianza umana, ecc.
- Rischio inaccettabile: ad esempio, i sistemi di IA che permettono l’attribuzione di un “punteggio sociale” da parte di governi o imprese sono considerati una chiara minaccia per i diritti fondamentali delle persone e sono pertanto vietati.
L’AI Act approda in Gazzetta Ufficiale europea con il Regolamento n. 1689 del 13 giugno 2024. Entrerà in vigore venti giorni dopo la pubblicazione in GU UE avvenuta in data 12 luglio 2024, il 1° agosto 2024. La sua piena applicazione sarà dal 2 agosto 2026. Intanto si vara un AI Pact su adesione volontaria delle aziende fornitrici di servizi di Gen AI. Dall’aprile 2018 alla piena entrata in vigore passeranno quindi circa 8 anni. Tempi inaccettabili per una legge ordinaria, figuriamoci per un regolamento che riguardi l’innovazione tecnologica che viaggia a ritmi accelerati.
(…) Da parte dei colossi digitali quella dell’Unione Europea viene comunque considerata una normativa frenante. È infatti frontale l’attacco alle regole dell’Europa, in particolare contro l’AI Act, ma anche il GDPR, il Regolamento Generale sulla protezione dei dati: “Con queste norme, frammentarie e imprevedibili, l’Europa resterà fuori dal mercato dell’IA che è in continua evoluzione” si legge nell’atto di accusa formulato in una lettera aperta del settembre 2024 di cui Mark Zuckerberg, CEO di Meta e il suo coordinatore e scientifico Yann LeCun sono i principali ispiratori. Ma ci sono anche le firme dei manager di grandi big tech come Google e Ericson, il CEO di Spotify Daniel Ek ed esponenti dell’imprenditoria italiana come John Elkan, Lorenzo Bertelli, Marco Tronchetti Provera, Lorenzo Milleri. Si schierano a favore di una profonda revisione delle regole europee anche Marco Baroni di Icrea e Nicolò Cesa Bianchi, dell’Università di Milano, uno dei nomi più prestigiosi tra gli informatici italiani.
Il nocciolo delle accuse riguarda i paletti che l’Unione Europa ha messo sul fronte del trattamento dei dati, che rappresentano la linfa vitale dell’Intelligenza artificiale Generativa. Scrivono Zuck e gli altri: “Se le aziende e le istituzioni intendono investire decine di miliardi di euro per costruire l’IA generativa per i cittadini europei, hanno bisogno di regole chiare, applicate in modo coerente, che consentano l’uso dei dati europei. Ma negli ultimi tempi il processo decisionale normativo è diventato frammentario e imprevedibile, mentre gli interventi delle autorità europee per la protezione dei dati hanno creato un’enorme incertezza su quali tipi di dati possono essere utilizzati per addestrare i modelli di IA. Ciò significa che la prossima generazione di modelli di IA open source, e i prodotti e i servizi che realizzeremo su di essi, non comprenderanno o rifletteranno la conoscenza, la cultura o le lingue europee”.
Scienziati e manager del mondo delle big tech paventano una sorta di autoemarginazione dell’Europa dai rapidi ed enormi passi avanti che la rivoluzione informatica sta facendo in ogni campo: “Siamo un gruppo di aziende, ricercatori e istituzioni che fanno parte integrante dell’Europa e che lavorano per centinaia di milioni di europei. Vogliamo che l’Europa abbia successo e prosperi, anche nel campo della ricerca e della tecnologia AI all’avanguardia. Ma la realtà è che l’Europa è diventata meno competitiva e meno innovativa rispetto ad altre regioni e ora rischia di rimanere ancora più indietro nell’era dell’IA a causa di decisioni normative incoerenti.
In assenza di regole coerenti – si legge nella lettera aperta – l’UE perderà due pietre miliari dell’innovazione dell’IA. Il primo è rappresentato dagli sviluppi di modelli “aperti” che vengono resi disponibili gratuitamente a tutti per essere utilizzati, modificati e sviluppati, moltiplicando i benefici e diffondendo le opportunità sociali ed economiche. I modelli aperti – sottolineano i firmatari dell’appello-denuncia – rafforzano la sovranità e il controllo consentendo alle organizzazioni di scaricare e mettere a punto i modelli ovunque vogliano, eliminando la necessità di inviare i propri dati altrove. I secondi sono i più recenti modelli “multimodali”, che operano in modo fluido attraverso il testo, le immagini e il parlato e che consentiranno il prossimo balzo in avanti dell’IA.
La differenza tra i modelli solo testo e quelli multimodali è come la differenza tra avere un solo senso e averne tutti e cinque. I modelli aperti di frontiera, basati sul testo o sulla multimodalità, – ribadiscono i firmatari del documento – possono accelerare la produttività, guidare la ricerca scientifica e aggiungere centinaia di miliardi di euro all’economia europea. Senza di essi, lo sviluppo dell’IA avverrà altrove, privando gli europei dei progressi tecnologici di cui godono Stati Uniti, Cina e India”.
La lettera aperta intende mettere l’Unione Europea di fronte a una sorta di bivio. Scrivono i firmatari: “L’Europa si trova di fronte a una scelta che avrà un impatto sulla regione per decenni. Può scegliere di riaffermare il principio di armonizzazione sancito da quadri normativi come il GDPR, offrendo un’interpretazione moderna delle disposizioni del GDPR che rispetti, comunque, i suoi valori di fondo, in modo che l’innovazione dell’IA avvenga qui alla stessa scala e velocità che altrove. Oppure può continuare a rifiutare il progresso, a contraddire le ambizioni del mercato unico e a guardare il resto del mondo che costruisce su tecnologie a cui gli europei non avranno accesso. Ci auguriamo – concludono i firmatari – che i responsabili politici e le autorità di regolamentazione europee si rendano conto della posta in gioco se non si cambia rotta. L’Europa non può permettersi di perdere i benefici diffusi derivanti da tecnologie di IA aperte e costruite in modo responsabile, che accelereranno la crescita economica e sbloccheranno i progressi della ricerca scientifica”.
La conclusione è una sorta di appello di vasta portata, anche dal punto di vista delle iniziative lobbistiche che ne possono derivare: “Abbiamo bisogno di decisioni armonizzate, coerenti, rapide e chiare nell’ambito dei regolamenti UE sui dati, che consentano di utilizzare i dati europei nella formazione dell’IA a beneficio dei cittadini europei. È necessaria un’azione decisa per contribuire a sbloccare la creatività, l’ingegno e l’imprenditorialità che garantiranno la prosperità, la crescita e la leadership tecnica dell’Europa”.