Approfondimenti
Futuro del lavoro e Agenda 2030: governare la trasformazione, non inseguirla
di Oliviero Casale, General Manager UniProfessioni
Agenda 2030 e AI ridisegnano il lavoro: non conta solo quanti posti si creano, ma qualità, competenze e governance. Senza regole e fiducia cresce l’“AI value divide”, ampliando divari tra imprese, territori e persone.
2 marzo 2026
L’Agenda 2030 invita a leggere il futuro del lavoro non come esito automatico dell’innovazione, ma come terreno di decisione pubblica in cui si intrecciano competitività, coesione sociale, sostenibilità e diritti. In questa chiave, e come richiamano anche analisi Ocse sulla misurazione dei risultati delle politiche, la questione non è soltanto quanta occupazione si generi, ma come si distribuiscano opportunità e capacità di transizione tra persone, imprese e territori. Il lavoro diventa condizione e risultato del progresso perché senza competenze, fiducia e qualità organizzativa la trasformazione non scala, e perché l’innovazione produce valore pubblico solo se si traduce in occupazione equa, sicura e inclusiva. Il principio “leave no one behind” diventa così un vincolo operativo che riguarda chi parte da posizioni più fragili e chi ha minore accesso a formazione continua e servizi di transizione. Considerare il lavoro in questa chiave significa trattarlo come bene comune, perché la qualità e l’accessibilità del lavoro incidono sulla tenuta democratica, sulla salute collettiva e sul presidio dei territori.
Nel quadro europeo si è consolidata una proposta di orientamento che assume rilievo anche oltre l’industria in senso stretto. La nozione di Industry 5.0 proposta nelle policy europee indica una traiettoria che integra centralità della persona, sostenibilità e resilienza; dunque, una lettura della modernizzazione che non separa performance e dignità. Questa impostazione dialoga con una linea più ampia sul futuro del lavoro, che insiste sulla necessità di collegare ricerca e innovazione a obiettivi sociali e ambientali, includendo la creazione di “good-quality jobs” come finalità esplicita.
Il passaggio all’intelligenza artificiale rende questa impostazione urgente. Il punto non è stabilire se l’AI creerà o distruggerà lavoro in termini netti, ma comprendere come ricomporrà mansioni, processi e responsabilità, e con quali strumenti istituzionali governare le transizioni. Il rapporto Ocse The impact of Artificial Intelligence on the labour market sottolinea che gli effetti osservati finora si manifestano spesso come riorganizzazione dei compiti all’interno delle occupazioni più che come sostituzione lineare di intere professioni, con implicazioni dirette su qualità del lavoro e modelli organizzativi. In questo quadro emergono criticità ricorrenti. La polarizzazione separa con maggiore forza profili ad alta qualificazione e attività più routinarie, il mismatch tra competenze richieste e disponibili rallenta l’adozione e aumenta i costi sociali, mentre la frequenza delle transizioni tra ruoli, settori e status occupazionali cresce lungo tutto l’arco della vita lavorativa. Lo stesso tema della “diffusione diseguale” e dei costi di transizione ritorna anche nelle analisi europee sul lavoro e l’AI, che osservano come la produttività possa restare deludente quando l’adozione è frammentata e non accompagnata da riprogettazione dei workflow e dati adeguati.
La trasformazione 2025 2030 è descritta come multidriver dalle principali analisi di scenario. Il Future of jobs report 2025 del World economic forum, basato su un’ampia indagine tra datori di lavoro, combina cambiamento tecnologico, transizione energetica, incertezze macroeconomiche, frammentazione geo economica e dinamiche demografiche, evidenziando la rotazione di ruoli e competenze e la necessità di estendere upskilling e reskilling a una quota rilevante della forza lavoro entro la fine del decennio.
Se si guarda all’Agenda 2030, la “scarsità di competenze” diventa un vincolo macro che può rallentare la transizione e amplificare le disuguaglianze, soprattutto quando i sistemi formativi e i dispositivi di formazione continua non raggiungono lavoratori e imprese con minore capacità di investimento.
Il tema delle competenze si intreccia con quello, altrettanto decisivo, della capacità organizzativa di trasformare sperimentazioni in valore. In molte indagini tra top manager si osserva che i ritorni dell’AI non sono ancora diffusi e misurabili in modo omogeneo. Il CEO Survey 2026 di PwC segnala che una quota importante di imprese dichiara benefici limitati o incerti.
Boston Consulting Group, nel report sul Widening AI value gap, descrive una dinamica convergente in cui una minoranza di imprese riesce a generare valore su scala mentre molte restano in una fase tattica, con un differenziale che tende ad ampliarsi nel tempo.
L’effetto sul lavoro è immediato. Chi scala prima consolida talenti, piattaforme e apprendimenti, mentre chi resta indietro fatica ad attrarre competenze e ad aggiornare l’organizzazione, con rischio di trasformazione a due velocità tra settori e territori.
Il salto più recente è legato ai modelli generativi e ai foundation model, che estendono l’impatto a porzioni ampie del lavoro cognitivo e linguistico. Accenture, nei lavori dedicati alla generative AI e alla trasformazione del lavoro, sottolinea che una quota significativa delle attività è basata su linguaggio, testi e documenti e risulta quindi impattabile dall’AI, con un potenziale che riguarda sia automazione di parti del lavoro sia augmentation e riprogettazione dei processi. Accenture, nella Tech vision 2025, insiste inoltre sul fatto che la condizione per scalare i benefici è la fiducia intesa come infrastruttura, quindi trasparenza, sicurezza e presidi di controllo, soprattutto quando i sistemi diventano più autonomi e operano in workflow critici.
Qui emerge un punto che i documenti più recenti trattano in modo sempre più esplicito. Non si parla più solo di strumenti di AI, ma di AI agents e di piattaforme “agentiche” che orchestrano flussi di lavoro, automazione e decisioni in catene operative end to end. Il report The Future of work with AI realizzato da Artefact con Odoxa, per esempio, propone una “triple action plan” che combina agentic workflow e automazione, gestione dei dati e knowledge management, e trasformazione di processi e ruoli, osservando inoltre che gli investimenti in programmi AI sono associati a benefici maggiori sia in produttività sia nel bilanciamento tra creazione e distruzione di posti.
La stessa logica ritorna nel rapporto Bcg Nasscom sui servizi tecnologici “AI powered”, che evidenzia il ruolo di governance, operating model, dati e people come dimensioni centrali di maturità, oltre alla necessità di change management e presidi di ethical AI per rendere replicabili e scalabili le iniziative. In parallelo, il report Bcg del 2021 The Future of jobs in the era of AI insiste sull’inadeguatezza delle metriche semplicistiche basate sul saldo netto di posti, e orienta l’attenzione su mismatch, sensibilità degli scenari e costruzione di una workforce adattiva.
La centralità della fiducia porta direttamente alla dimensione regolatoria e di governance interna. EY, nel rapporto sul panorama regolatorio globale dell’AI, evidenzia una convergenza verso approcci basati sul rischio e su principi di trasparenza, accountability e tutela dei diritti. EY, in un documento dedicato alla robotica e al futuro del lavoro, richiama inoltre che automazione e “digital workforce” possono migliorare produttività e conformità solo quando sono integrate nei processi e accompagnate da competenze e governance.
Su questo stesso asse, documenti europei sul lavoro e l’AI sottolineano che affidabilità, auditabilità, spiegabilità e chiarezza delle responsabilità sono condizioni per l’adozione e per la fiducia sociale, perché senza rimedi e regole comprensibili la tecnologia tende a erodere consenso e legittimazione.
A questo punto diventa rilevante anche il contributo del Ceps. Nel policy brief sugli abilitatori e le sfide della transizione digitale nell’Unione europea, il Ceps insiste sul fatto che la trasformazione non è semplicemente adozione tecnologica, ma coerenza tra regole, implementazione efficace e capacità di generare fiducia, segnalando inoltre il rischio di divari tra imprese e territori e l’esigenza di una forza lavoro adeguatamente preparata. Nelle Research priorities 2024–25, il Ceps aggiunge un elemento che è particolarmente pertinente per la generative AI, cioè l’idea del “Big unknown”, la parte ampia della forza lavoro per la quale è difficile prevedere impatti e traiettorie, e la necessità di studiare decision-making ibrido uomo macchina e implicazioni per job design.
Il quadro che emerge è coerente, quando l’AI viene innestata su processi frammentati o su dati incoerenti produce attrito e riduce la qualità del lavoro, mentre un’adozione accompagnata da riprogettazione dei flussi e competenze diffuse può ridurre attività ripetitive e migliorare sicurezza e qualità decisionale, liberando tempo per attività a maggiore contenuto relazionale e cognitivo. La nozione di “adozione diseguale” resta tuttavia centrale, perché il rischio non è solo sociale. È anche competitivo. Se pochi attori accumulano capacità agentiche e scalano valore, mentre altri restano in piloti, si crea una frattura tra “frontier” e “laggards” che le analisi europee e Ocse collegano alla divergenza di produttività e, in ultima istanza, alla divergenza territoriale.
Qui si innesta un passaggio che aiuta a leggere il futuro con un linguaggio aggiornato. Per anni si è parlato di digital divide come divario di accesso a connettività e competenze digitali di base. Nella traiettoria che si sta delineando, il rischio è un diverso tipo di frattura. Potremmo chiamarlo “agentic divide” o “AI value divide”. Non riguarda solo chi è connesso, ma chi dispone di dati, governance, competenze e modelli operativi per rendere l’AI affidabile, scalabile e utile, e chi invece rimane dipendente da soluzioni esterne senza capacità di orchestrazione e senza controllo sui processi decisionali. Questa frattura è più difficile da colmare, perché non si risolve con un solo investimento infrastrutturale, ma con un insieme di politiche su competenze, standard, implementazione delle regole e capacità di trasformazione nelle organizzazioni.
Il dibattito si estende già alle organizzazioni agentiche e all’intelligenza artificiale generativa come infrastruttura trasversale, e in questo contesto si affaccia anche la discussione su “Industry 6.0” come possibile ulteriore salto sistemico. Qualunque etichetta si utilizzi, il criterio di merito resta lo stesso. Tecnologie più potenti aumentano il valore potenziale, ma anche i rischi di concentrazione e di esclusione. Per questo diventa utile spingersi oltre la resilienza e considerare l’obiettivo dell’antifragilità, cioè la capacità dei sistemi di apprendere dagli shock e migliorare grazie alle discontinuità, trasformando l’accelerazione tecnologica in sviluppo umano, sociale e ambientale coerente con gli SDGs.
