La vicepresidente della Camera, Anna Ascani, vuole portare l’intelligenza artificiale generativa in Parlamento. Da una parte c’è il progetto di legge che intende assicurare la trasparenza dei contenuti generati dall’IA, per evitare che siano usati in modo ingannevole, dall’altra c’è l’intenzione di velocizzare il lavoro di deputati e senatori attraverso uno strumento simile a ChatGpt
(Pier Luigi Pisa su La Repubblica)
La regolamentazione dell’IA, le cui crescenti capacità preoccupano sviluppatori, scienziati e governi, è un rebus internazionale di difficile risoluzione.
L’Onu si è mobilitata a luglio scorso, annunciando la formazione di un nuovo Ente che “raccoglierà le necessarie competenze” sull’intelligenza artificiale e “le metterà a disposizione della comunità internazionale”. Più o meno nello stesso periodo, il Parlamento europeo ha approvato l’AI Act, il più avanzato insieme di norme al mondo che regolano lo sviluppo e l’utilizzo dell’intelligenza artificiale negli stati membri dell’Unione.
Il G7 ha recentemente approvato un Codice di condotta internazionale sull’IA, a cui aziende e organizzazioni possono aderire su base volontaria, e persino gli Usa, solitamente poco “attenti” alla regolamentazione delle big tech, hanno dato una stretta allo sviluppo dell’intelligenza artificiale con un recente ordine esecutivo di Biden.
L’Italia, in tutto questo, non resta a guardare. Anche in vista del turno di presidenza del G7 che le spetterà nel 2024, la premier Meloni ha preso parte all’AI Safety summit organizzato recentemente dal Regno Unito per discutere dei rischi legati all’intelligenza artificiale. E in cantiere il nostro Paese ha anche una proposta di legge proprio sull’IA – l’unica per ora su questo tema – che ispirandosi allo sforzo internazionale si concentra su un aspetto estremamente pratico: la necessità di un’etichetta o un marchio visibile che identifichi sempre, e in modo trasparente, se un contenuto – testo, audio o video – è stato prodotto da un’intelligenza artificiale.
La “Legge sulla Trasparenza dei Contenuti Generati da Intelligenza Artificiale” nasce da un’iniziativa della vicepresidente della Camera, Anna Ascani (Pd-Idp), e dal lavoro di un gruppo di parlamentari, in particolare del senatore Nicita (Pd-Idp).
Nella relazione introduttiva si legge che “in attesa di un quadro regolatorio complessivo, anche in attuazione dei regolamenti europei, appare urgente rendere univocamente e immediatamente trasparente e riconoscibile agli utenti la natura non umana, e dunque artefatta e manipolata, dei contenuti generati da AI”.
Il primo punto dell’Articolo 2 della proposta di legge, su questo è estremamente chiaro: “Tutti i contenuti editoriali generati da IA devono essere chiaramente identificati come tali e resi riconoscibili agli utenti attraverso sistemi di etichettatura (label) e filigrana (watermark)”.
Tra i politici che si affacciano a Montecitorio, la vicepresidente Ascani è stata tra i primi a interessarsi alla rapida ascesa delle intelligenze artificiali generative, iniziata esattamente un anno fa con il lancio, da parte dell’azienda statunitense OpenAI, di ChatGpt, l’IA capace di esprimersi come un essere umano.
Da aprile a luglio del 2023 Ascani ha presieduto un ciclo di audizioni a cui hanno partecipato – in presenza a Montecitorio o in collegamento da remoto – i principali protagonisti dell’innovazione nel settore dell’IA: dai creatori di ChatGpt, appunto, agli accademici di Stanford. Il tutto per capire capire “le potenzialità dell’intelligenza artificiale” e “per studiare la loro possibile applicazione all’interno della documentazione parlamentare, a supporto dell’attività del Parlamento stesso”.
L’attività in parlamento è stata seguita, a ottobre scorso, da una missione del Comitato di vigilanza sull’attività di documentazione della Camera negli Stati Uniti. L’intento era quello di studiare da vicino le aziende che stranno contribuendo a una rivoluzione tecnologica paragonata alla scoperta dell’elettricità e del fuoco. E non solo. In qualità di Presidente del Comitato di vigilanza sull’attività di documentazione , Ascani ha preso parte alla missione con l’intento di applicare le capacità di elaborazione e sintesi di strumenti come ChatGpt agli archivi e ai documenti consultati dai parlamentari nel corso del loro lavoro.
“Una delle finalità della missione era proprio quella di capire con quali partner tecnologici sviluppare una sperimentazione sulla documentazione della Camera” afferma Ascani. Che poi aggiunge: “In realtà la Camera già utilizza sistemi di intelligenza artificiale classica, ad esempio per agevolare il lavoro stenografico o per dare supporto a chi redige i dossier. L’idea è insomma quella di fare un passo in avanti”.
Onorevole Ascani, negli Usa avete trovato il partner tecnologico che cercavate?
“Non ancora. Adesso presenteremo un report che sarà chiuso a fine anno nel quale raccoglieremo anche le audizioni fatte prima di partire, i risultati della missione e alcuni approfondimenti più tecnici e legati all’etica che chiederemo ad alcuni esperti”.
In che modo l’intelligenza artificiale generativa renderà più veloce il lavoro del Parlamento?
“Avrà un impatto sulla pulizia delle leggi, perché spesso nella legislazione ci sono sovrapposizioni, richiami confusionari che appesantiscono la legge. Non ho studiato Giurisprudenza, non sono un avvocato ma uno dei più grandi problemi della legislazione italiana è proprio la sovrapposizione, il richiamo complesso, mentre questo strumento aiuterà a rendere più pulita la legge”.
Quando vedremo questa tecnologia all’opera?
“Ci stiamo muovendo con grande prudenza per provare ad avere un risultato entro la fine di questa legislatura”.
Quali saranno i benefici per i cittadini?
“L’IA generativa in futuro potrebbe per esempio consentire a chiunque di accedere con estrema facilità a tutto quello che accade in Parlamento. Se oggi un cittadino vuole sapere cosa ha fatto Anna Ascani può contare solo sui motori di ricerca ordinari. Per cui se intende sapere come ho votato un determinato provvedimento dovrà consultare numerosi link. Per capire come ha votato il mio gruppo, per esempio, e se io ero presente. Per un elettore questa operazione oggi è oggettivamente complicata, l’IA può aiutare l’accountability”.
Il futuro che dipinge non è banale, l’IA può sbagliare.
“È chiaro che affronteremo questa innovazione coi piedi di piombo, perché sappiamo che l’intelligenza artificiale è sensibile alle allucinazioni. Se l’IA commettesse degli errori nelle stanze del parlamento, sarebbe drammatico”.
L’altro problema in vista riguarda la sicurezza dei dati che vengono affidati all’IA.
“È la nostra principale preoccupazione. Avere il controllo dei dati che entrano, sapere dove vengono conservati e avere la certezza che non vengano utilizzati per finalità diverse da quelle per cui vengono condivisi. È una sfida che intendiamo affrontare con l’aiuto degli esperti italiani che abbiamo incontrato negli Stati Uniti e anche con il sostegno delle nostre università”.
Negli USA ha incontrato italiani particolarmente brillanti nel campo dell’IA?
“Sì, ovunque. Quando abbiamo visitato la sede di OpenAI abbiamo discusso proprio con un ricercatore italiano di come si potrebbe utilizzare l’intelligenza artificiale generativa in parlamento. Poi mi ha impressionato un professore di Stanford, Stefano Ermon, che si occupa proprio di IA generativa, in particolare di modelli open source ma anche dei rischi legati a questa tecnologia. Proprio a Stanford abbiamo visitato lo Human-Centerd AI Institute dove si lavora all’indice di trasparenza dell’intelligenza artificiale [l’AI Index, un rapporto annuale che “traccia, raccoglie, distilla e visualizza i dati relativi all’intelligenza artificiale”, nda]”.
La prima proposta di legge italiana sull’AI si concentra proprio sulla trasparenza.
“Su questo aspetto si stanno cimentando sia le istituzioni sia le stesse aziende coinvolte nello sviluppo di intelligenza artificiale. Tutti si pongono il problema di quale sia l’etichetta migliore da applicare a un prodotto generato dall’intelligenza artificiale. Per evitare, per esempio, che video deepfake possano essere scambiati per filmati reali”.
Una sorta di lettera scarlatta, insomma.
“Non la vedrei in questo modo, non si tratta di un’etichetta che viene apposta necessariamente a un contenuto negativo. È solo un elemento di trasparenza in più per il fruitore del contenuto”.
Facciamo un esempio: i famosi deepfake di Matteo Renzi e Ilary Blasi di Striscia la Notizia, così sorprendentemente “veri”, dovranno essere etichettati chiaramente come prodotti generati dall’intelligenza artificiale?
“Esatto, dovrà essere un simbolo che andrà mostrato sia al telespettatore sia all’eventuale fruitore dello stesso video sui social. Sarà necessaria una campagna realizzata ad hoc che istruisca i cittadini e che spieghi che quando compare un determinato simbolo, appunto, vuol dire che il contenuto contrassegnato è stato generato dall’IA. pensare che il deepfake di Ilary Blasi sia reale è un problema, ma non è il rischio più grande con cui abbiamo a che fare”.
Che cosa la preoccupa in particolare?
“Nel giro di poco tempo gran parte della popolazione mondiale che vive in stati democratici sarà chiamata a votare. Ci attendono le elezioni europee [giugno 2024] e quelle americane [novembre 2024] e la questione dei deepfake utilizzati a scopo elettorale è un tema sul tavolo di tutti ed è molto molto caldo”.
Con l’IA si può ormai replicare qualsiasi voce. Distinguere un’affermazione vera da una falsa sarà sempre più complicato. Anche perché nel caso di un audio, appunto, l’etichetta di cui stiamo parlando è difficile da immaginare: un suono o un avvertimento iniziale potrebbero non bastare. L’ascoltatore potrebbe saltare la prima parte, per esempio, oppure qualcuno potrebbe tagliarla e trasmettere solo il deepfake. Qual è la soluzione a questo problema?
“Non a caso nella bozza della proposta di legge pensata e presentata dal senatore Antonio Nicita e da me e Andrea Casu alla Camera si chiama in causa l’Autorità per le comunicazioni. È chiaro che poi, nella pratica, per declinare una legge serviranno strumenti adeguati e in questo caso sarà l’Agcom a definire quali. Una legge deve stabilire princìpi generali e non entrare nel merito delle singole casistiche: questo è un compito che spetta alle authority o ai ministeri delegati”.
C’è un sostegno bipartisan a questa proposta di legge?
“Speriamo che incontri il favore della maggioranza. D’altronde la missione che abbiamo effettuato negli Usa era bipartisan. Io non credo che ci sarà un’ostilità ideologica, penso solo che ci sia paura di fare un passo sbagliato”.
Quando la porterete in Parlamento?
“Non sono in grado di dirlo perché non governo il calendario della Camera. Ma speriamo di farlo entro i prossimi sei mesi”.
Le sanzioni previste dalla proposta di legge riguardano solo gli utenti che generano contenuti attraverso l’IA o anche chi mette a disposizione gli strumenti e le piattaforme che poi diffondono tali contenuti?
“Questo è il grande tema che ha guidato il dibattito sul DSA in Europa, perché le aziende spesso hanno detto che non possono essere responsabili di tutti i contenuti che vengono generati e poi messi a disposizione. Però noi abbiamo bisogno di una corresponsabilità delle aziende perché poi, di fatto, queste hanno la tecnologia che serve a riconoscere eventuali violazioni. L’utente è responsabile nel dichiarare che sta pubblicando un documento o una immagine o un video prodotto con l’intelligenza artificiale, ma qualora non lo facesse la piattaforma che ha permesso la generazione deve avere uno strumento che riconosca il contenuto prodotto dall’IA”.
Sembra un obiettivo complesso. Non ci sono solo le big tech. Miriadi di piccole startup utilizzano oggi l’IA per generare contenuti. E sarà difficile monitorare ognuna di queste.
“Noi dobbiamo guardare a quello che si fa nel resto del mondo, ed è quello che stiamo facendo. Gli Stati Uniti sono un punto di riferimento. Non dobbiamo agire da soli pensando di arrivare prima degli altri. Però è anche vero che gli strumenti tecnologici mano a mano si stanno sviluppando. OpenAI dice di aver sviluppato uno strumento capace di riconoscere le immagini generate da IA con una certezza del 98%, per esempio. Meta, Google, Microsoft hanno modo di investire su questo se questo diventa un tema centrale. Perché poi questo è il punto. Se l’attenzione delle istituzioni e dell’opinione pubblica si concentra su questo si faranno più investimenti in questa capacità di riconoscere i contenuti automaticamente anche quelli provenienti da modelli open source e non dalle cosiddette big tech”.
Onorevole Ascani, l’IA la spaventa?
“No, non mi spaventa. Non credo che avere paura sia un atteggiamento corretto nei confronti di una tecnologia che è pronta a rivoluzionare tutto. Però ci sono degli elementi di rischio che vanno considerati con grande accortezza. Per esempio il fatto che l’uomo resti il centro e che non diventi un elemento periferico di sperimentazione è una questione estremamente delicata. Non possiamo immaginare il futuro dell’intelligenza artificiale basato su qualcosa che non sia l’accrescimento del benessere collettivo. L’Intelligenza artificiale è una tecnologia non particolarmente nuova. È nuova sicuramente nella forma generativa che deve rimanere a supporto delle capacità umane, del pensiero critico, della immaginazione umana e anche della convivenza sociale. Come elemento di facilitazione dei rapporti, insomma. Se tutto questo si ridurrà a una visione distopica nella quale gli uomini faranno i lavori ripetitivi che spetterebbero ai robot, ecco allora che questo scenario francamente non mi entusiasma particolarmente. Però io non sono così pessimista”.