Anna Ascani ha un chiodo fisso: lo sviluppo dell’intelligenza artificiale e i rischi relativi alla diffusione di applicazioni che possono avere accesso a una quantità incredibile di informazioni, tra cui dati sensibili degli utenti, chiamano la politica a una serie di interventi urgenti. Per non commettere lo stesso errore già visto quando sono nati i social network: che, oltre ad aver rivoluzionato il modo di comunicare delle persone, sono diventati presto veicolo di informazioni fuorvianti e fake news, arrivando a condizionare persino l’opinione pubblica.
A colloquio con Wired l’onorevole del Partito democratico, vicepresidente della Camera e alla guida del Comitato di vigilanzasull’attività di documentazione di Montecitorio, che ha promosso un ciclo di audizioni sull’intelligenza artificiale e una sperimentazione in collaborazione con alcune università italiane.
Onorevole Anna Ascani, l’Unione europea è stata la prima istituzione al mondo a regolamentare l’utilizzo e lo sviluppo dell’intelligenza artificiale con l’AI Act, una legge entrata in vigore il 2 febbraio. Cosa cambia?
“Le norme prevedono che le piattaforme si adeguino. E naturalmente anche i governi dovranno rispettare indicazioni che riguardano i sistemi di social scoring, l’identificazione biometrica in tempo reale e tutte le pratiche che da ora in poi sono vietate. E poi deve essere garantita la formazione a tutti coloro che lavorano con l’intelligenza artificiale, quella che la Commissione europea chiama ‘alfabetizzazione’. Le piattaforme dovranno garantire che i servizi forniti attraverso l’intelligenza artificiale generativa o che ne prevedano l’utilizzo non sfruttino la vulnerabilità delle persone, cioè che non le categorizzino. Si è parlato a lungo dei rischi connessi all’identificare le persone attraverso la loro categoria d’appartenenza: perché considerate, per esempio sulla base della loro nazionalità, più inclini a commettere reati”.
Pensa che le piattaforme lo faranno?
“Questa è la vera domanda, l’altra è come l’Unione Europea dovrebbe reagire in caso di mancato rispetto di queste prescrizioni, perché è evidente che siamo in una fase geopolitica molto diversa da quella in cui è stato pensato l’AI Act. Con il Comitato abbiamo lavorato a lungo ascoltando esperti e operatori del settore, soprattutto statunitensi. Abbiamo prodotto un report che di fatto ha confermato gli indirizzi della nuova legge europea, come era naturale. Non pensiamo però che sia giusto agire come singoli paesi, perché potrebbe essere controproducente. Già l’Europa da sola rappresenta solo una parte del quadro complessivo, e pensare di agire fuori dai meccanismi continentali rischia di produrre solo danni”.
L’intelligenza artificiale scuote anche la geopolitica, perché – come già detto – in ballo c’è il controllo dei dati personali di decine di milioni di persone da parte delle società che gestiscono le applicazioni. DeepSeek, il software cinese open source che è stato lanciato per competere con la statunitense Open Ai, è entrato nel mirino dal Garante della privacy, che ha imposto la limitazione immediata del trattamento dei dati degli utenti presenti sul territorio nazionale. Quali sono i rischi a cui andiamo incontro?
“Per fortuna l’Europa si è dotata di alcune regole che ci proteggono: penso al Gdpr [il regolamento generale sulla protezione dei dati, ndr]. Il tema è se DeepSeek rispetta o meno quelle regole, e al momento sembrerebbe di no. Chi ha messo a punto quella tecnologia ammette di averlo fatto secondo regole che non sono quelle dell’Unione Europea: quindi, evidentemente, il Garante per la privacy ha fatto una propria valutazione come già fece agli albori di ChatGpt. Qui però il punto della questione è come l’Europa pensa di inserirsi in questo gigantesco mercato dei dati. Per il momento lo ha fatto solo regolando – e per carità, le regole sono fondamentali -: ma c’è bisogno di riprendere il ragionamento su un cloud europeo, c’è bisogno di capire se noi saremo soltanto degli utilizzatori di tecnologie sviluppate in America o in Cina o se saremo, invece, in grado di sviluppare una nostra tecnologia europea. Da questo punto di vista, la rivoluzione di DeepSeek apre degli spiragli, perché dimostra che è possibile la rottura di un monopolio e che con investimenti non imponenti e un tempo non lunghissimo si può entrare in competizione con i grandi dell’IA globale. Penso che l’Europa potrebbe percorrere questa strada se i Ventisette avranno voglia di investire su questa tecnologia del presente e del futuro. Ma per il momento, al di là dei proclami, si è visto poco in questa direzione e questo penso che sia il grande problema dell’Europa in questo momento, ancor più del rapporto con DeepSeek, con OpenAI e con tutti gli altri soggetti che controllano l’intelligenza artificiale”.
C’è il rischio di una nuova “guerra ibrida” combattuta su questo campo di battaglia virtuale?
“In realtà l’intelligenza artificiale già da tempo viene utilizzata come arma nei conflitti veri e propri, dove viene adoperata e sperimentata nelle sue forme peggiori. Quella verso l’IA generale è di fatto una nuova versione della corsa allo spazio, posto che questa tecnologia ha a che fare anche con la corsa allo spazio in senso stretto. Come è sempre accaduto, le grandi potenze globali si confrontano e mostrano i muscoli anche sul campo dell’innovazione. Oggi vediamo che la Cina vuole giocare la propria partita, ma per noi la domanda è sempre la stessa: ci limitiamo a schierarci da una parte o dall’altra – posto che ovviamente gli Stati Uniti sono il nostro alleato storico e lo resteranno – oppure vogliamo provarci anche noi? Io penso che valga la pena almeno di tentare”.
Impossibile non affrontare il discorso delle concentrazioni di potere e dell’utilizzo della Rete come strumento di propaganda. All’Inauguration day di Trump c’erano tutti i grandi della tecnologia. Quali saranno le conseguenze di questa alleanza tra Big Tech e l’ultradestra americana per l’Europa e per l’Italia?
“Si è rotta l’illusione che l’innovazione tecnologica sia per forza democratica. Lo abbiamo visto con l’esplosione dei social network: alcuni processi democratici sembravano effettivamente più forti – ricordo ad esempio l’esaltazione collettiva per le primavere arabe – per il fatto che sono strumenti che hanno dato spesso voce a chi sembrava non averne. Poi però ci siamo resi conto che in pochissimi guadagnano moltissimo utilizzando i dati di tutti e che avendo a disposizione questi dati sono in grado anche di determinare alcuni processi che hanno a che fare con le nostre democrazie. Adesso che ce ne siamo resi conto non possiamo più far finta di niente. È evidente che quello che sta facendo Musk è un tentativo di frammentare l’Europa attraverso alleanze con i partiti dell’ultradestra europea che di fatto hanno sempre combattuto l’idea di un’Europa unita. Lo sta facendo in Germania con il sostegno esplicito dell’Afd, lo fa in tante altre aree del continente. Però il problema è sempre la nostra reazione: al di là delle regole che ci servono in questo momento, ed è fondamentale che l’AI Act funzioni e che anzi venga rafforzato, dobbiamo pensare a come essere competitivi, cioè avere tecnologie alternative create da aziende europee per gli utenti europei. Al momento non ce ne sono, perché noi la partita dei social network non l’abbiamo praticamente giocata e quella del cloud abbiamo provato a giocarla con GAIA X per poi di fatto abbandonarla. Ora c’è la partita dell’intelligenza artificiale e dobbiamo esserci: altrimenti recuperare le distanze diventerà davvero difficile. Purtroppo i grandi monopoli si concentreranno sempre di più, con un rischio enorme per le democrazie del mondo. Compresa la nostra”.