Editoriali
Impatto sul mercato del lavoro, deepfake, stereotipi di genere, ma anche migliori traduzioni e previsioni degli eventi estremi. L’Ai cambia il nostro presente e futuro: bene la regolamentazione, ma c’è bisogno di una riflessione più ampia.
di Flavio Natale
Parlare di intelligenza artificiale (Ai) oggi è come parlare di internet nel 1995, anno della sua diffusione su scala globale. C’è un grande fervore, un’accesa discussione, tante proposte, ma in pochi sanno effettivamente cosa stia accadendo, e cosa accadrà in futuro. Una certezza però esiste, ed è già sotto i nostri occhi: l’Ai è una rivoluzione di portata storica, che sta mutando la nostra società e il modo in cui viviamo in essa.
A riflettere sull’imponderabilità delle previsioni sull’intelligenza artificiale, e nello specifico su ChatGpt (chatbot sviluppato da OpenAi, la principale azienda del settore) è uno dei suoi più grandi esperti, Eric Horvitz, lo scienziato informatico americano per anni a capo della divisione ricerca di Microsoft e attualmente direttore scientifico di tutta l’azienda, intervistato il 30 ottobre nel programma Presa Diretta, la trasmissione di Riccardo Iacona in onda su Rai3.
“Lavoro nel campo dell’intelligenza artificiale da 40 anni. Quello a cui siamo sempre voluti arrivare era un’intelligenza generale, simile a quella umana: capace di sintetizzare, astrarre, mettere insieme idee disparate, essere creativa. Non siamo ancora lì, ma con ChatGpt4 stiamo vedendo delle scintille”, ha dichiarato Horvitz a Lisa Iotti, che lo ha intervistato a New York. “Gpt4 fa cose incredibili come risolvere la matematica e combinarla con la poesia di Shakespeare. Parlare di un problema difficile di fisica, e contemporaneamente di filosofia”, ha aggiunto lo scienziato. “È una macchina sorprendente. Attraverso questo semplice meccanismo di previsione statistica, sembra creare un’autentica rappresentazione del mondo”.
Ed è proprio il mondo intero a essere coinvolto nella diffusione di questa rivoluzione tecnologica.
Ad esempio, secondo un articolo del New York Times, le elezioni in Argentina, attualmente in corso, sono pesantemente influenzate dall’utilizzo dell’Ai. I due candidati, da una parte il ministro dell’economia uscente Sergio Massa e dall’altra l’ultraliberista Javier Milei, si stanno sfidando a suon di immagini generate dall’intelligenza artificiale, affisse anche per le strade delle città. Massa è stato ritratto dai suoi sostenitori come leader sovietico, soldato in guerra, acchiappafantasmi e Indiana Jones. Milei, invece, celebre per la sua instabilità, è stato identificato dai suoi detrattori come un personaggio di Arancia Meccanica o Paura e delirio a Las Vegas. I sostenitori di Milei hanno risposto diffondendo in rete immagini di Massa a capo di un ipotetico partito comunista cinese, rappresentando invece Milei come un impavido leone.
Ma non si parla solo di immagini. Durante la campagna argentina, è circolato in rete un video “deepfake” (ovvero un contenuto falso ma estremamente realistico) in cui Milei istruisce il pubblico sul funzionamento del mercato degli organi umani. Nonostante fosse dichiaratamente contraffatto, molti elettori ci hanno creduto, a causa di una visione distratta o dell’alta viralità del video, che rende difficile risalire alla fonte originaria dell’informazione. “L’ascesa dell’Ai nelle elezioni argentine ha portato le persone a domandarsi cosa sia reale”, sintetizza il New York Times. Sempre restando in Argentina, è circolato un altro video in cui Massa, ripreso mentre si riposava, esausto, dopo un evento elettorale, è stato accusato di essere sotto l’effetto di sostanze stupefacenti. I suoi critici hanno colto la palla al balzo, mentre i sostenitori hanno dato la colpa ai deepfake. Alla fine il team di Massa ha dichiarato che il video era reale, ma il candidato non aveva fatto uso di nessuna sostanza. Questo potrebbe portare alla deriva per cui, come afferma lo stesso Massa, le persone utilizzeranno l’Ai anche per nascondere aspetti della realtà.
Il rischio, come dice Horvitz a Presa Diretta, è quello di “creare un mondo post-epistemico, dove ci sono tanti contenuti credibili generati da sistemi di intelligenza artificiale ovunque”. Per evitare questo fenomeno, assicura il direttore, Microsoft sta lavorando assiduamente, anche se, ammette: “Non so come andrà a finire”.
Ma intelligenza artificiale vuol dire anche impatti sul mercato del lavoro. Il dibattito vede due schieramenti contrapposti: chi suggerisce che l’ingresso dell’Ai si tradurrà in sconvolgimenti del mercato (con un ruolo più limitato per gli esseri umani) e chi sostiene invece che comporterà un aumento della produttività e del benessere dei lavoratori. L’Ocse, basandosi sull’analisi di quasi cento casi di intelligenze artificiali impiegati nei settori finanziario e manifatturiero in otto Paesi (Austria, Canada, Francia, Germania, Irlanda, Giappone, Regno Unito e Stati Uniti) ha provato a tracciare un quadro della situazione. Due i dati particolarmente significativi.
Il primo è che, al momento, l’Ai sta influenzando soprattutto le attività lavorative più routinarie, mentre altri tipi di occupazioni – dove servono empatia, interazione sociale, creatività – restano di dominio degli esseri umani. Ma questo trend potrebbe non durare a lungo. Basti ricordare lo sciopero di attori e sceneggiatori che ha messo in ginocchio l’industria di Hollywood per mesi. Tra le ragioni alla base dello sciopero, l’uso improprio dell’intelligenza artificiale nel settore. Gli sceneggiatori hanno richiesto di mantenere i diritti d’autore legati alla singola persona, anche in caso di utilizzo dell’Ai per sviluppare un testo. Gli attori hanno invece protestato per il rischio di sostituzione della loro immagine: “Ci hanno proposto la possibilità di scannerizzare le comparse e pagarle per un giorno di lavoro, in modo che le aziende diventino proprietarie di quella scansione e della loro immagine, e possano usarla per tutto il tempo che vogliono su qualsiasi progetto, senza consenso e compenso”, ha dichiarato Duncan Crabtree-Ireland, tra i leader del sindacato degli attori Sag-Aftra. Altri personaggi apicali, come i fratelli Russo, registi della saga Marvel The Avengers, sono invece favorevoli all’introduzione dell’Ai nel settore, considerandolo un atto di “democratizzazione della narrazione”, dal momento che “chiunque in una stanza potrà raccontare una storia o realizzare un gioco su larga scala”.
Restando nel settore dell’intrattenimento, nei prossimi mesi YouTube introdurrà un sistema di doppiaggio in automatico dei suoi video, e si chiamerà Aloud. Il sistema di intelligenza artificiale prevede una traduzione istantanea del parlato, applicando la voce dell’attore a una lingua che (probabilmente) nemmeno conosce.
Ci sarà un grande sviluppo anche per il settore delle traduzioni scritte: l’incremento da 32mila a 128mila token (che potrebbero essere viste come parti di parola di un dizionario) annunciato da Sam Altman, padre di ChatGpt, permetterà all’intelligenza artificiale di tradurre in brevissimo tempo un quantitativo di testo pari a circa trecento pagine: praticamente un libro.
Implementazioni positive riguardano anche le previsioni meteorologiche. DeepMind, società satellite di Alphabet (Google), ha sviluppato un modello di previsione meteo, GraphCast, capace di elaborare proiezioni con una precisione più accurata del 90% rispetto ai servizi tradizionali, sia sul brevissimo termine (5-90 minuti) che sul lungo (dieci giorni), includendo anche la previsione dei fenomeni climatici estremi.
Ma l’intelligenza artificiale è addestrata su dati che provengono per lo più da informazioni prodotte dagli esseri umani, e questo potrebbe portarla a replicare stereotipi di genere, etnia, orientamento sessuale, i cosidetti bias. Nel 2017 Amazon aveva già creato un prototipo di intelligenza artificiale addestrata sui curricula dell’industria tecnologica (a prevalenza maschile), apprendendo che i candidati maschi e bianchi erano i migliori. Questo strumento ha sistematicamente declassato i Cv delle donne. Altro esempio: una ricerca condotta negli Stati Uniti nel 2020 ha dimostrato che la tecnologia di analisi facciale creata da Microsoft e Ibm ha funzionato meglio su uomini dalla pelle chiara che donne dalla pelle scura.
L’intelligenza artificiale, come internet, può essere dunque un potente strumento evolutivo, come un mezzo per perpetuare disuguaglianze e ingiustizie. Per questo servono strumenti per regolarla.
Ci sta provando il presidente degli Stati Uniti Joe Biden, che il 30 ottobre ha emesso un ordine esecutivo per la regolamentazione dell’Ai. Due i pilastri del piano, presentato in una conferenza stampa: ampliare l'utilizzo dell'intelligenza artificiale da parte del governo federale; rafforzare il controllo sull’uso a fini commerciali.
Biden ha ad esempio imposto obblighi di rendicontazione alle aziende impegnate nel settore e ha richiesto ai produttori di punta di segnalare al governo informazioni significative, come l’addestramento di nuovi modelli e l’applicazione di nuove norme di sicurezza, al fine di garantire la sicurezza nazionale. Il dipartimento dell’energia è stato inoltre incaricato di valutare in quale modo le intelligenze artificiali possano produrre potenziali rischi relativi a violazioni informatiche o attacchi biologici e chimici (criticità nata in seguito a un rapporto pubblicato sull’argomento dal governo inglese).
Biden assicura però che non vuole fermare il treno dell'Ai. L’ha descritta come “una delle tecnologie più potenti del nostro tempo”, e intende mantenere ben saldo il ruolo di leadership statunitense nel settore.
In Europa la strada che si percorre è simile. Tra il 1 e il 2 novembre si è tenuto nel Regno Unito l’Ai safety summit, primo vertice internazionale di alto livello sul tema dell'intelligenza artificiale, guidato dal primo ministro britannico Rishi Sunak, che intende far diventare il Regno Unito capofila nello sviluppo dell’Ai. L’obiettivo dell’incontro è stato stabilire una “visione comune” per i prossimi cinque anni, attraverso un documento, la dichiarazione di Bletchley, firmata da 28 Paesi, tra cui Stati Uniti, Cina e Italia. “Esiste il potenziale per danni gravi, persino catastrofici, deliberati o involontari, derivanti dai modelli di intelligenza artificiale”, si legge nella dichiarazione. Per evitare derive distopiche, dunque, è importante favorire la cooperazione internazionale: “Decidiamo di lavorare insieme in modo inclusivo per garantire un’intelligenza artificiale focalizzata sull’uomo, affidabile e responsabile”. Il 14 giugno 2023 il Parlamento europeo ha anche approvato l’Artificial intelligence act, primo regolamento al mondo volto a disciplinare l’uso dell’Ai nel rispetto dei diritti e delle libertà individuali.
L’ASviS sta sollecitando da tempo il dibattito sul tema. All’interno del Festival dello Sviluppo Sostenibile 2023 si è tenuto un evento, organizzato dal Gruppo di lavoro dell’Alleanza sul Goal 16 (Pace, giustizia e istituzioni solide), FUTURAnetwork, Cortile dei gentili e Cid ethics, in cui si è dibattuto di regolamentazione dell’intelligenza artificiale, etica dell’Ai, proprietà intellettuale, creatività e nuovi spazi pubblici per stimolare il dibattito. Pressoché ogni settimana FUTURAnetowrk ci aggiorna su questo tema con interviste alla stessa Ai sugli scenari futuri, segnalazioni di studi significativi e il blog “Ai Visions”.
Il tema è stato ripreso anche nel Rapporto ASviS 2023, dove sono state identificate le principali sfide su cui lavorare nei prossimi anni per un corretto sviluppo dell’intelligenza artificiale. Tra queste: il rafforzamento della democrazia (grazie a una maggiore capacità di accesso e verifica delle informazioni da parte dei cittadini); il rispetto dei diritti delle persone, evitando le derive che le fake news (a scopo propagandistico, commerciale e politico) e la creazione dei deepfake possono generare, diffondendo cyberbullismo, sexting, phishing e truffe on line; evitare nuove forme di discriminazione, rendendo i sistemi di Ai più inclusivi rispetto alle diversità di etnia, identità di genere, orientamento sessuale, dissenso politico, disabilità, e in generale rispetto alle persone fragili e vulnerabili dal punto di vista fisico e cognitivo.
Questo, al momento, è il quadro, imperfetto e variegato, dello sviluppo dell’intelligenza artificiale e del suo grado di diffusione nella nostra società. Tra tante incertezze, l’unica sicurezza è che per una rivoluzione di questa portata c‘è bisogno di una riflessione strutturata, che in Italia come in altri Paesi fatica a partire. Fortunatamente, siamo ancora in tempo: come per l’avvento di internet, questo è solo l’inizio.
di Flavio Natale
Foto di Gertrūda Valasevičiūtė su Unsplash