per dare un futuro alla vita   
e valore al futuro

ISTRUZIONE DI QUALITA'

Assicurare un’istruzione di qualità, equa ed inclusiva, e promuovere opportunità di apprendimento permanente per tutti

In Italia la dispersione scolastica passa dal 14,7% nel 2018 al 13,1% nel 2021, a fronte di una media Ue del 9,7%. Permangono divari di genere più forti che negli altri Paesi europei e allarmanti disparità sociali e territoriali con riferimento alla qualità degli apprendimenti.

Notizie

I rischi globali ed esistenziali dei prossimi anni, secondo l’Italian institute for the future

Il nuovo Rapporto dell’Iif mappa le minacce del futuro, dalle armi biologiche al terrorismo, dal collasso climatico al potenziamento umano, dalla superintelligenza artificiale ai rischi spaziali. Le risposte per un futuro più sicuro e sostenibile. 5/11/24

martedì 5 novembre 2024
Tempo di lettura: min

“Lo studio dei rischi esistenziali è un tema complesso e urgente, che esplora minacce in grado di annientare o limitare drasticamente il potenziale dell’umanità”: da questo assunto parte la nuova pubblicazione dell’Italian institute for the future (Iif) “Rischi globali e rischi esistenziali. Megatrends Quarterly Report n. 5” che mappa le minacce globali che potrebbero verificarsi nei prossimi decenni, delineando scenari da evitare o da affrontare prima che sia troppo tardi. “Analizzare tali rischi non è solo un esercizio di previsione”, si legge nello studio, “ma un passo fondamentale per costruire futuri più sicuri e sostenibili”. L’obiettivo non è infatti quello di “prevedere” bensì di “esplorare probabilità”, per comprendere meglio il presente e prepararci ai futuri possibili.

Ma quali sono questi rischi? Tra i vari, il documento dell’Iif approfondisce i pericoli legati a biowarfare, minaccia nucleare, terrorismo internazionale, collasso climatico, geoingegneria, potenziamento umano, superintelligenza artificiale e rischi spaziali.

Tra guerre biologiche e potenziamento umano

Con l’evoluzione della tecnologia e i progressi nel settore della manipolazione genetica, l’Iif studia in prima battuta gli scenari di biowarfare, ovvero l’utilizzo degli armamenti biologici nelle guerre.

“Le biotecnologie e la biologia sintetica, con le loro caratteristiche emergenti, potranno consentire attacchi più mirati (small in scale) ad esempio su specifici gruppi etnici in base ai loro genotipi”, avverte l’Iif, “oppure progettando il Dna di un agente patogeno in modo da limitarne la replicazione solo a un certo numero di cicli o a determinate condizioni ambientali”. Questi attacchi, indirizzati verso specifici gruppi, potrebbero però generare “effetti cumulativi potenzialmente catastrofici” sulla società qualora non si riuscisse ad arginarli in tempo. “Le biowarfare del 21esimo secolo saranno fatte di narrazioni, accordi economici e alleanze politiche che spesso si svolgeranno nelle zone grigie tra pace e guerra”, si legge.

Per questa ragione sarà fondamentale la costituzione di una intelligence medica, dotata di competenze e infrastrutture di ricerca, anche con meccanismi di debunking (altro pericolo segnalato dall’Iif è quello dell’information warfare, ovvero la manipolazione dell’informazione per scopi propagandistici o ingannevoli). I rischi di questo scenario non sono così peregrini: “Alcuni ricercatori stimano che una pandemia ingegnerizzata abbia una possibilità su 30 di causare una catastrofe esistenziale nei prossimi cento anni”.

Un’altra sfaccettatura dello spettro di possibilità è l’utilizzo della biologica sintetica per alterare l’evoluzione dell’essere umano. “Il suo vero potenziale trasformativo potrebbe risiedere nella alterazione della natura umana rendendo gli esseri umani più performanti sia fisicamente che cognitivamente”, rischiando di frammentare la specie in diverse sottospecie. Il rischio, avverte l’Iif, è la creazione di una nuova specie “post-Homo sapiens”, che potrebbe causare l’estinzione, o il parziale e lento declino, dell’Homo sapiens, per seguire il principio del “miglior interesse dell’umanità”.

Collasso climatico e geoingegneria

Un altro rischio esistenziale è che la nostra civiltà crolli sotto il peso dei fenomeni climatici estremi. Di questo argomento, con un focus sul territorio nazionale, ha parlato anche l’ASviS nel Rapporto “Scenari per l’Italia al 2030 e al 2050. Le scelte da compiere ora per uno sviluppo sostenibile”, in cui lo scenario peggiore, ovvero quello di catastrofe climatica, si verificherebbe qualora i governi fallissero nel contenere l’aumento della temperatura e le emissioni di gas climalteranti, generando danni incalcolabili alle società, sia a livello economico che in termini di vite umane.

Tra le diverse soluzioni proposte nel corso del tempo quella più discussa riguarda l’uso della geoingegneria (o “ingegneria climatica”), ambito che racchiude quelle tecniche artificiali volte a contrastare i cambiamenti climatici causati dall'uomo.


DA FUTURANETWORK.EU - IL DILEMMA DELLA GEOINGEGNERIA: MITIGAZIONE O “HACKERAGGIO” DEL CLIMA? 


Tra le ipotesi geoingegneristiche più dibattute si annovera la gestione delle radiazioni solari (Solar radiation management), un insieme di metodi volti a ridurre la quantità di energia solare assorbita dal clima della Terra, attraverso tecnologie da dispiegare su larga scala. “Proprio per la loro portata globale, queste tecnologie comportano alti livelli di incertezza sugli effetti del sistema climatico terrestre”.

Altra opzione riguarda l’iniezione di aerosol nella stratosfera (Stratospheric aerosol injection) che, imitando gli effetti di un’eruzione vulcanica e ricreando la dispersione di particelle inorganiche (solfati o carbonato di calcio) nella bassa stratosfera, mitigherebbe l’impatto delle radiazioni, raffreddando la Terra. “Anche in questo caso, i rischi si collegano all’incertezza degli effetti collaterali di questa tecnologia su scala planetaria, dato che il clima è un sistema complesso in grado di reagire in modo imprevedibile a trasformazioni anche minime”.

Nonostante i pericoli evidenti, gli studiosi dei rischi esistenziali ritengono però che i pericoli legati al clima “siano di portata inferiore ad altri sempre di natura antropica”. Ad esempio, il filosofo Toby Ord, nelle stime probabilistiche pubblicate nel saggio “The Precipice: existential risk and the future of humanity”, stima che il collasso climatico abbia una possibilità su mille di verificarsi entro questo secolo, rispetto a una possibilità su dieci di sviluppare una superintelligenza artificiale non allineata ai valori umani.

Super AI, terrorismo globale, rischi spaziali e alieni

E proprio di AI e dei rischi di una “superintelligenza artificiale” tratta un altro capitolo del Rapporto pubblicato dall’Iif. Esistono infatti diversi possibili sviluppi nocivi legati alle AI generative – come la possibilità di generare codice per lanciare attacchi cibernetici o istruzioni per la fabbricazione di armi – “ma è soprattutto la produzione di contenuti fake per finalità di disinformazione a stare prendendo più piede”, con la possibilità di generare campagne di disinformazione sfociare nel sopracitato scenario di information warfare.


DA FUTURANETWORK.EU - COSA RISCHIAMO CON L’AI? 


Ci sono poi i rischi legati alla generazione di una cosiddetta “AI forte” (autocosciente, dotata di consapevolezza di sé) e il possibile sviluppo di una “superintelligenza” che superi esponenzialmente le capacità umane e che possa non essere allineata ai nostri valori. Questo rischio esponenziale potrebbe essere mitigato, secondo gli studiosi dell’Iif, seguendo tre direttive: regolamentazione (ovvero la possibilità di adottare normative internazionali che regolino lo sviluppo dell’AI in modo multipolare e democratico); confinamento (soluzioni che possano impedire la diffusione dell’intelligenza artificiale generativa su larga scala e nella rete); progettazione (soluzioni informatiche per dotare l’intelligenza artificiale generativa di valori allineati a quelli umani).

A questo utilizzo “malevolo” dell’intelligenza artificiale è legata anche la potenza d’impatto dei gruppi terroristici. Se infatti fino a oggi le azioni sono state per lo più centrate su obiettivi di scala relativamente ridotta, potrebbe stagliarsi un futuro in cui gli attacchi si verificheranno su larga scala, puntando perfino all’obiettivo della distruzione dell’umanità, “per ragioni utopico/catartiche o per ragioni estreme di tipo ambientale (l’uomo distrugge l’ambiente, quindi se vogliamo preservare quest’ultimo, bisogna distruggere l’umanità)”.

Questo nuovo genere di attacchi potrebbe sfruttare le avanzate tecniche di bioingegneria per produrre virus o batteri infettivi, oppure un’intelligenza artificiale capace di “utilizzare in maniera vorace le risorse computazionali e quindi energetiche disponibili”, o anche la creazione di nanorobot “che si replicano ad altissima velocità sottraendo così risorse all’umanità”. A questi si aggiungono i cosiddetti “attacchi indiretti”, che prevedono l’infiltrazione nel sistema di comando e controllo di una potenza nucleare, la creazione di casi di finta aggressione che portino uno stato nucleare a ritenere di dover usare i propri armamenti, o ancora “l’infiltrazione all’interno di un sistema di protezione contro gli asteroidi, utilizzandolo per deviare un asteroide contro la Terra”.

A proposito di spazio, “secondo l’Agenzia spaziale europea (Esa), dall’inizio dell’era spaziale nel 1957 sono stati lanciati circa 12mila satelliti, di cui ne rimangono oggi in orbita circa 7.600, di cui solo 4.700 sono ancora operativi”, sottolinea l’Iif. Questo vuol dire che a oggi ci sono circa tremila oggetti dismessi e di grandi dimensioni orbitanti nello spazio, con un corollario di detriti orbitanti di piccole dimensioni frutto di precedenti collisioni. Il rischio, con l’incremento esorbitante di satelliti lanciati in orbita (da Space X, ma non solo), è quello di una ostruzione dello spazio atmosferico (in particolare l’orbita terrestre bassa) che potrebbe generare collisioni con effetti catastrofici.


DA FUTURANETWORK.EU - COME L’ALTO MARE, ANCHE LO SPAZIO DEVE ESSERE PROTETTO CON UN TRATTATO CONTRO L’INQUINAMENTO


Al momento, i rischi registrati non si possono definire “esistenziali”. Tuttavia, come ricorda l’Iif, nel 1978 lo scienziato della Nasa Donald J. Kessler propose uno scenario, conosciuto come “sindrome di Kessler” in cui, aumentando il numero di satelliti, sarebbero aumentate le collisioni (generando detriti che potrebbero causare altre collisioni, con un effetto a catena), creando una sorta di “cintura di detriti” attorno alla Terra e rendendo molto difficoltoso l’accesso allo spazio. “In un simile scenario possiamo sì parlare di rischio esistenziale, poiché l’impossibilità di procedere all’esplorazione spaziale porrebbe sicuramente un grave limite allo sviluppo dell’umanità e forse alla sua futura sopravvivenza”.

Infine, c’è il rischio legato a un eventuale contatto con le civiltà aliene, che potrebbe causare conflitti su scala interplanetaria. Assumendo la possibilità che le comunicazioni finora ricercate non si siano verificate per l’ipotesi del “Grande Filtro” (ovvero che ogni civiltà tecnologica raggiunga un “punto di non ritorno”, e che questa sarebbe la ragione per cui non riusciamo a metterci in contatto con altre civiltà, dal momento che nessuna “è durata sufficientemente a lungo da poter comunicare con noi”), l’Iif ipotizza due casi di comunicazione extraterrestre prendendo come base i programmi Seti (Search for extra-terrestrial intelligence).

Il primo, denominato di Seti passiva, si basa sulla comunicazione monodirezionale, in cui ci limitiamo ad ascoltare i messaggi provenienti dallo spazio. In uno scenario potenziale di rischio esistenziale, una civiltà extraterrestre potrebbe inviarci un messaggio “contente il progetto di un semplice computer virtuale e di un programma da eseguire con tale computer”. Questo programma potrebbe essere un tool di intelligenza artificiale inviato con intenzioni malevole per distruggere le nostre risorse elaborative, che gli esseri umani potrebbero mettere in atto per ragioni di curiosità o di mancata valutazione dei rischi. In caso di Seti attiva (ovvero l’invio di messaggi da parte degli esseri umani e, in caso di risposta, dell’eventuale costruzione di un dialogo), il rischio potrebbe derivare dalla mutua incomprensione dei due soggetti: “Secondo i linguisti, un linguaggio risulta comprensibile e quindi traducibile quando vi è una condivisione del contesto” (un fenomeno analizzato approfonditamente in Arrival, il film del 2016 di Denis Villeneuve). Questa mutua incomprensione potrebbe portare a condizioni di mancanza di fiducia tra due attori e quindi all’utilizzo del conflitto come soluzione più logica.

Il Rapporto sui rischi globali ed esistenziali dell’Iif mette dunque sul piatto, con un approccio metodologico rigoroso, i possibili scenari e pericoli in cui potrebbe incorrere l’umanità, delineando le risposte per evitarli o arrivare preparati all’impatto, e indicando le vie per strutturare un futuro migliore. Se avete fegato, leggetelo.

Scarica lo studio “Rischi globali e rischi esistenziali. Megatrends Quarterly Report n. 5

Aderenti

Alleanza Italiana per lo Sviluppo Sostenibile - ASviS
Via Farini 17, 00185 Roma C.F. 97893090585 P.IVA 14610671001

Licenza Creative Commons
This work is licensed under a Creative Commons Attribuzione - Non commerciale - Non opere derivate 4.0 Internazionale