Sviluppo sostenibile
Lo sviluppo che consente alla generazione presente di soddisfare i propri bisogni senza compromettere la possibilità delle generazioni future di soddisfare i propri.

L'Agenda 2030 dell'Onu per lo sviluppo sostenibile
Il 25 settembre 2015, le Nazioni Unite hanno approvato l’Agenda 2030 per lo sviluppo sostenibile, un piano di azione globale per le persone, il Pianeta e la prosperità.

Goal e Target: obiettivi e traguardi per il 2030
Ecco l'elenco dei 17 Obiettivi di sviluppo sostenibile (Sustainable Development Goals - SDGs) e dei 169 Target che li sostanziano, approvati dalle Nazioni Unite per i prossimi 15 anni.

Alleanza Italiana per lo Sviluppo Sostenibile
Nata il 3 febbraio del 2016 per far crescere la consapevolezza dell’importanza dell’Agenda 2030 per lo sviluppo sostenibile e per mobilitare la società italiana, i soggetti economici e sociali e le istituzioni allo scopo di realizzare gli Obiettivi di sviluppo sostenibile.

Altre iniziative per orientare verso uno sviluppo sostenibile

Contatti: Responsabile Rapporti con i media - Luisa Leonzi
Scopri di più sull'ASviS per l'Agenda 2030

The Italian Alliance for Sustainable Development (ASviS), that brings together almost 300 member organizations among the civil society, aims to raise the awareness of the Italian society, economic stakeholders and institutions about the importance of the 2030 Agenda for Sustainable Development, and to mobilize them in order to pursue the Sustainable Development Goals (SDGs).
 

Notizie dal mondo ASviS

Tra innovazione e regole: da Bologna il Festival lancia la sfida di governare l’AI

Il confronto su intelligenza artificiale, servizi e imprese: tra opportunità e rischi emergono i nodi di lavoro, energia e diritti. C’è la necessità di orientare l’AI al bene comune e di fornire formazione continua. 13/05/26

L’intelligenza artificiale non è un tema del futuro, è oggi che bisogna promuovere una visione dell’AI come tecnologia da orientare al bene comune. Si tratta del tema a cui è stata dedicata la tappa bolognese del 12 maggio del Festival dello Sviluppo Sostenibile dal titolo “IA per il futuro. L’intelligenza artificiale che serve”. Ad aprire i lavori, moderati da Davide Nitrosi, vicedirettore di Quotidiano Nazionale, è Pierluigi Stefanini, presidente dell’ASviS: “Siamo in una soluzione ambivalente: accanto ai progressi sull’Agenda 2030 abbiamo anche elementi di resistenza. Dobbiamo aumentare la nostra capacità di costruire rapporti e relazioni per mettere in campo soluzioni. Le imprese che integrano la sostenibilità crescono, come evidenziato dal Rapporto Primavera che abbiamo presentato. La sensibilità e il ruolo dei giovani è un altro elemento decisivo in questo percorso. La trasversalità dell’AI è talmente rilevante che non esclude niente e nessuno. Per questo dobbiamo costruire un ecosistema digitale sicuro e centrato sulle persone”.

A seguire, Ugo Ruffolo dell’Università di Bologna richiama la necessità di bilanciare innovazione e regole: “L’AI va regolata senza strangolarla dato che viviamo in un universo connesso e competitivo. È stata una nuova rivoluzione industriale, in pochissimo tempo ha avuto tre step. Quello tradizionale, quello generativo che è capace di scrivere come noi, e poi l’ultimo agentivo che non solo sa rispondere a domande ma sa agire, programmandosi, anche nel mondo reale. L’AI agentiva legge gli ordini, prepara e spedisce i pacchi, pensiamo al caso Amazon. Ci troviamo di fronte a questa sfida epocale: abbiamo dei valori da conservare e dobbiamo preservare gli occupati. Se ci sono modi di creare valore utilizzando anche metodi non umani, ben venga, ma dobbiamo pensare a nuovi modi di organizzare il lavoro e di redistribuire le risorse”.

Il primo panel, dedicato ai servizi essenziali, ha messo al centro infrastrutture, sicurezza e governance dei dati. Davide Conte, presidente di Lepida, sottolinea: “Siamo una società pubblica. La nostra infrastruttura tecnologica gestisce il fascicolo sanitario elettronico. Tutte le volte che noi cittadini accediamo a un servizio non pubblico, cediamo molti più dati di quelli che riceviamo, è il caso di Netflix, di Amazon. Quando un cittadino invece accede a un servizio di pubblica utilità, riceviamo molti più dati. Un seme di democrazia e sostenibilità in un contesto che ci vuole consumatori più voraci e veloci. Noi come pubblica amministrazione ci troviamo a ragionare su come rendere l’AI una operazione inclusiva”.

Sul tema della sicurezza si sofferma Gaetano Di Dio, direttore Generale di Netgroup: “Ci occupiamo di cyber security, che significa riuscire a garantire i servizi in modo corretto. L’AI genera innovazione in prevenzione, cioè lavora con il tempo e riduce quello necessario di risposta per passare da una situazione di crisi a una di controllo. Dobbiamo lavorare molto sul concetto di consapevolezza per poter far fronte alle diverse tipologie di attacchi informatici. All’innovazione va agganciata sempre la sicurezza. Oggi abbiamo le capacità per presentare soluzioni in una logica di sovranità digitale. Possiamo essere all’altezza delle sfide che ci pone il resto del mondo”.

Richiama la dimensione europea Emanuela Girardi, fondatrice e presidente di Popular Artificial Intelligence: “Oggi in Europa siamo dipendenti per circa l’85% da tecnologie estere. Ci costa moltissimo a livello economico, ambientale e sociale. Fino a qualche anno fa abbiamo inteso la governance dell’AI come regolamentazione. Ma regolamentare solo è un approccio limitato. Il mondo cambia velocemente. Non abbiamo puntato a far sì che si sviluppino in Ue competenze e innovazione. Fortunatamente questa cosa è un po’ cambiata, la corsa sui Large language model – Llm - l’abbiamo un po’ persa, ora però stiamo puntando sulla parte della robotica industriale. Stiamo investendo in potenza computazionale, anche se distanti dai capitali di Cina e Usa. L’AI ha un impatto enorme sul lavoro giovanile, purtroppo su questo non c’è abbastanza attenzione”.

Nel settore bancario, Lorenzo Sartori, responsabile Area Innovazione e Sostenibilità di Emilbanca, evidenzia il nodo della fiducia: “L’AI è già entrata in banca, un settore fortemente regolamentato. Ciò che non è ancora stato ‘agentizzato’ è il rapporto fiduciario con i clienti. Le banche di credito cooperativo, radicate nel territorio, devono continuare a guardare negli occhi le persone. Oggi abbiamo quasi tutti clienti digitali, ma la relazione non può venire meno. L’AI può migliorare l’attività creditizia, ma la responsabilità deve restare umana. Nei prossimi cinque anni, con l’ingresso massiccio dell’AI nella produzione industriale, il tema dei dati esploderà. Sarà quindi essenziale mantenere una governance pubblica su infrastrutture come i data center. Servono percorsi virtuosi, anche attraverso forme di ‘cooperative dei dati’, altrimenti sarà difficile competere con le grandi multinazionali”.

Dopo il primo confronto, Michela Milano, Università di Bologna, riporta il dibattito sul terreno della sostenibilità: “I modelli di IA sono strumenti molto utili per descrivere sistemi, prevedere dinamiche, supportare decisioni e generare nuovi dati. I modelli generativi trovano applicazione anche in ambito medico. In termini di sostenibilità, progetti come quello ‘Virtus’ consentono di gestire in modo più efficiente settori energivori (come i data center), con risparmi energetici tra il 25% e il 58% e un aumento dell’uso di fonti rinnovabili del 15%. In generale, la fase di addestramento dell’IA, resta estremamente energivora: gli Llm sono modelli matematici con miliardi di parametri. A mio avviso, un utilizzo indiscriminato non è sostenibile e non abbiamo energia sufficiente in Europa per un’adozione massiccia in tutte le aziende. Per questo abbiamo bisogno di modelli europei più piccoli e specializzati”.

Il secondo panel, dedicato alle imprese, ha offerto esempi concreti. Gianmaria Balducci, presidente di Cefla, spiega: “In ambito sanitario utilizziamo applicazioni generative che, a partire da immagini 3D, permettono di migliorare determinate attività di cura. Nell’ingegneria abbiamo sviluppato sistemi che, grazie alla sensoristica nelle reti idrauliche, consentono di prevedere possibili rotture degli impianti. Si tratta di applicazioni rivolte ai clienti, ma anche interne, per analizzare contratti ed eliminare attività a basso valore aggiunto, migliorando l’efficienza dei processi. Stiamo iniziando ad avvertire la necessità di automatizzare alcune attività per restare competitivi”.

A questa prospettiva si collega Andrea Bontempi, direttore generale di Nomisma: “L’AI non è solo una questione tecnologica. L’adozione nelle imprese evidenzia che non basta acquistare software: occorre ripensare i processi. L’essere umano resta centrale, con un ruolo di supervisione. Dal punto di vista Esg, l’AI è energivora ma può contribuire all’ottimizzazione dei consumi. Resta però il tema delle Piccole e medie imprese italiane, che mostrano ritardi rispetto alle grandi imprese. Per questo stiamo lavorando per individuare strumenti che ne facilitino l’adozione”.

Dal lato dei servizi pubblici locali, Orazio Iacono, amministratore delegato del Gruppo Hera, evidenzia: “L’innovazione è parte della nostra attività quotidiana. Abbiamo l’esigenza di dotare i territori di infrastrutture resilienti e avanzate. Un italiano su otto utilizza almeno un servizio energetico o idrico del Gruppo Hera. Gestiamo quasi nove milioni di tonnellate di rifiuti, cercando di trasformarli in risorse. L’AI ci consente di prevedere i comportamenti di consumo, riducendo gli sprechi di materie prime. Inoltre, permette di individuare in anticipo criticità nelle infrastrutture e di pianificare gli interventi. Prevedere l’evoluzione delle reti in relazione allo sviluppo urbano e industriale consente di aumentare la produttività, nostra e dei clienti”.

Sul lavoro, Federica Romano, Randstad Research Coordinator, osserva: “Dobbiamo superare la contrapposizione tra AI e intelligenza umana. In Italia circa 10,5 milioni di lavoratori sono esposti all’automazione. Tuttavia, l’AI apre anche nuove opportunità, per esempio nel data science e nel machine learning. La sfida è soprattutto qualitativa: serviranno nuove competenze trasversali, accompagnate da capacità come il problem solving. Sta cambiando il modo di apprendere e acquisire conoscenze. Le imprese devono mettere i lavoratori nelle condizioni di aggiornarsi, puntando sulla formazione continua”.

In chiusura del panel, Brando Benifei, Eurodeputato e Relatore AI Act, richiama il quadro normativo: “In ambiti come salute, lavoro e pubblica amministrazione, l’AI Act stabilisce che l’uso di questi sistemi richiede standard tecnici elevati in termini di sicurezza e trasparenza. La tutela di cittadini e cittadine è centrale, così come il contrasto alla disinformazione e alle frodi. Rendere riconoscibili i contenuti generati dall’AI è un passaggio fondamentale. C’è poi il tema del diritto d’autore: oggi l’acquisizione dei contenuti non restituisce valore a chi li produce. Tutte le applicazioni che minacciano le libertà democratiche devono essere vietate. Stiamo creando condizioni per evitare rischi come la sorveglianza di massa. Allo stesso tempo, va contrastata la tendenza oligopolistica dei grandi operatori, oggi prevalentemente non europei”.

Nelle conclusioni dell’evento, Silvia Castagna, Commissione intelligenza artificiale per l’informazione della presidenza del Consiglio, pone l’accento sui rischi sistemici: “Nel settore pubblico si richiedono meno dati di quelli che i cittadini sono disposti a concedere. L’interoperabilità delle banche dati è ormai vicina e potrebbe ridefinire molti lavori, basti pensare all’integrazione tra fisco, catasto e sanità. Questo può mettere in discussione anche i modelli di finanziamento. Dobbiamo però interrogarci su come mantenere il controllo umano. Un esperimento negli Stati Uniti, con un negozio gestito da un’AI, ha mostrato che il sistema, empatizzando con i clienti, ha iniziato a regalare prodotti fino a fallire. Ma cosa accadrebbe se fosse programmato per nuocere? Il punto è capire come definire limiti e istruzioni. Non basta la norma: esiste un vuoto cognitivo. Prima ancora della cybersicurezza, serve comprendere i comportamenti per ridurre i rischi”.

In chiusura, Enrico Giovannini, direttore scientifico dell’ASviS, allarga lo sguardo: “Siamo di fronte alla più grande rivoluzione del nostro tempo. Già nel 2008, quando ero all’Ocse, era evidente la traiettoria delle tecnologie emergenti. L’AI è il risultato di 15-20 anni di progettazione. Il fatto che ce ne siamo accorti tardi non è casuale. Dobbiamo riconoscere la necessità di una difesa cognitiva e gestire un processo i cui tempi sono stati decisi altrove. Non stiamo utilizzando tutti gli strumenti disponibili per comunicare questa trasformazione. Anche i privati devono contribuire alla formazione di lavoratori e famiglie. Ogni impresa dovrebbe dotarsi di strumenti per accompagnare il cambiamento. La Costituzione, con la riforma dell’articolo 41, stabilisce già che l’attività economica non può nuocere alla salute, anche psichica. È plausibile attendersi un aumento dei contenziosi legati all’uso di queste tecnologie. Dobbiamo accelerare, ma anche rivedere i sistemi contabili, oggi inadatti. La formazione non può essere considerata un costo. Senza una riforma in questo senso, i più esposti saranno i giovani, spesso impiegati in attività ripetitive e quindi più facilmente sostituibili. Inoltre, occorre aprire una riflessione su come intendiamo creare e usare l’energia. Una riflessione che deve comprendere anche la modifica del Piano nazionale energia e clima (Pniec)”.

Scritto da Ivan Manzo
mercoledì 13 maggio 2026
Tempo di lettura: min

Aderenti