Notizie
FOCUS. Dobbiamo aver paura della sorveglianza di massa?
Mentre la Cina punta a conquistare entro il 2030 il primato sulle tecnologie di intelligenza artificiale, i sistemi di controllo fondati sugli algoritmi sollevano diverse questioni sul versante dei diritti. [Da Futuranetwork.eu] 10/9/20
Aule dotate di processori del linguaggio, tecnologia di riconoscimento vocale e dei gesti, rilevamento degli occhi e altri sensori fisiologici per raccogliere e analizzare le informazioni su ogni studente. Era il 2017 quando su Futurism Rose Luckin, docente all’University College London Knowledge Lab, immaginava l’apprendimento del futuro: “Invece di aspettare un test o una mano alzata di uno studente per mostrare la sua comprensione del materiale, gli insegnanti potrebbero accedere a informazioni in tempo reale, che mostrino loro perché lo studente potrebbe non apprendere a pieno regime. Saprebbero quali studenti non dormono abbastanza, se hanno diete inadeguate o soffrono di stress emotivo, informazioni che possono influenzare le prestazioni di uno studente ma possono essere difficili da svelare in una classe”.
Qualche mese dopo, la Cina ha iniziato a testare l’intelligenza artificiale sugli studenti. Un’inchiesta del Wall Street Journal ha rivelato che nella scuola elementare di Jinhua Xiaoshun, nella Cina orientale, gli alunni non iniziavano la lezione aprendo i libri di testo, ma indossando delle fasce per misurare la concentrazione. Un dispositivo da mettere in testa, per captare i segnali elettronici dei neuroni del cervello e tradurli in un punteggio di attenzione. Molti media cinesi iniziarono a chiedersi se la privacy di bambini in età scolare fosse protetta e come venissero utilizzati i dati. Il 31 ottobre 2019, l’Ufficio dell’istruzione locale ha annunciato improvvisamente di aver fermato la sperimentazione.
Questo uso sempre più aggressivo e talvolta intrusivo della tecnologia nell’istruzione è fondamentale per l’obiettivo di Pechino di rendere l’industria dell’Artificial intelligence (AI) un nuovo motore di espansione economica. Il Paese mira a diventare un leader mondiale nell'AI entro il 2030. Ma alcuni critici affermano che un’“istruzione intelligente”, come la chiama il governo cinese, nasconda in realtà la spinta di Pechino a utilizzare la tecnologia come strumento di sorveglianza per mantenere la stabilità sociale. Qualche giorno fa le principali piattaforme video cinesi hanno annunciato di punire gli utenti che sprecheranno il cibo durante le loro trasmissioni, dopo che il presidente Xi Jinping ha dichiarato tolleranza zero contro questa usanza. Durante l’emergenza sanitaria, in centinaia di città della Cina i cittadini sono stati monitorati da un’app che classifica automaticamente ogni persona con un codice di diverso colore in base al rischio di contagio. Il software determinava quali persone dovessero essere messe in quarantena o autorizzate a entrare in luoghi pubblici come le metropolitane.
Entro la fine del prossimo decennio, potremmo avere un trilione di sensori in funzione sulla superficie della Terra. I nostri smartphone, occhiali per realtà aumentata, robot, dispositivi medici indossabili incorporati nei computer raggiungeranno un totale di 50 miliardi di dispositivi connessi, la maggior parte dei quali non parlerà a noi ma tra di loro. Questo Internet of Things potrebbe controllare quasi tutto, dal trasporto e la logistica agli elettrodomestici e all'assistenza sanitaria. Non siamo ancora arrivati a una sorveglianza di massa, eppure sono numerose le questioni che i sistemi di controllo fondati sugli algoritmi sollevano sul versante dei diritti. “Poiché alla fine l'intelligenza artificiale avrà migliaia di diversi tipi di applicazioni, dobbiamo guidare il suo sviluppo in una direzione sicura, ponendo limiti a ciò che è autorizzato a fare e ciò che non lo è”, ha scritto in un articolo Bela Liptak, ingegnere e già professore presso l’Università di Yale. “Oggi, il processo di sviluppo dell'AI è incontrollato, gli sviluppatori hanno obiettivi diversi e alcuni di questi obiettivi sono indesiderabili o addirittura pericolosi… In breve, il processo di sviluppo dell'AI non deve rimanere incontrollato, dobbiamo mantenerlo all'interno di un involucro di controllo”.
L'uso di software per "sorvegliare" gli studenti durante le sessioni d'esame è già realtà in alcune università italiane. In fase di didattica a distanza, sono state introdotte piattaforme che svolgono la funzione cosiddetta di e-proctoring, ossia monitorano automaticamente con la webcam il comportamento dei candidati e, allo stesso tempo, controllano quali programmi vengono avviati sul pc. Con la webcam è necessario fare il riconoscimento iniziale con il documento e allo studente è richiesto anche di riprendere la stanza. Il software Respondus, in uso al Politecnico di Torino, assolve proprio a queste funzioni.
Gli esperti ritengono che il mercato dell’istruzione globale sarà una delle aree strategiche per l’Intelligenza Artificiale del 21° secolo. Secondo una stima, la Cina ha investito a livello globale oltre un miliardo di dollari nell’istruzione AI. Il MIT ha rilevato che decine di milioni di studenti cinesi già utilizzano una qualche forma di AI per imparare, sia attraverso programmi di tutoraggio extracurriculari come Squirrel, sia tramite piattaforme di apprendimento digitale come 17ZuoYe. Anche la Silicon Valley è molto interessata. In un rapporto di marzo 2019, l’iniziativa Chan - Zuckerberg e la Bill and Melinda Gates Foundation hanno identificato l’Intelligenza Artificiale come uno strumento educativo degno di riferimento. John Couch, vicepresidente per l’istruzione di Apple, ha lodato Squirrel AI nel suo libro del 2018 - Rewiring Education: How technology can unlock every student’s potential. Squirrel ha anche aperto un laboratorio di ricerca congiunto con la Carnegie Mellon University per studiare l’apprendimento personalizzato su larga scala, quindi esportarlo a livello globale.
Sebbene le macchine possono gestire una serie di compiti specifici, non ci siamo ancora avvicinati alla creazione di un’intelligenza generale artificiale, il tipo di macchina che nelle intenzioni degli sviluppatori potrebbe “sostituire” i buoni insegnanti. Forse sarebbe auspicabile un compromesso, come riportato nell’articolo del MIT: “l'intelligenza artificiale potrebbe subentrare in alcuni compiti meccanici in classe, liberando gli insegnanti e consentendo loro di prestare maggiore attenzione a ogni studente. Le ipotesi differiscono su come potrebbe concretizzarsi. Forse l'AI insegnerà certi tipi di conoscenza mentre gli umani insegneranno ad altri; forse aiuterà gli insegnanti a tenere traccia delle prestazioni degli studenti o darà agli alunni un maggiore controllo su come apprendono. In ogni caso, l'obiettivo finale è un insegnamento profondamente personalizzato”.
Il riconoscimento facciale
Poche tecnologie biometriche stanno stimolando la nostra immaginazione come il riconoscimento facciale. Allo stesso modo, la diffusione di questa tecnica ha suscitato profonde preoccupazioni in merito alla sorveglianza statale e legittime preoccupazioni sulla privacy. La biometria del viso può anche essere impiegata nei controlli di polizia, sebbene il suo utilizzo sia rigorosamente controllato in Europa. Uno studio pubblicato a giugno 2019 da MarketsAndMarkets stima che entro il 2024 il mercato globale del riconoscimento facciale genererà 7 miliardi di dollari di entrate, supportati da un tasso di crescita annuale composto (Cagr) del 16% nel periodo 2019-2024.
Mentre gli Stati Uniti detengono il più grande mercato per il riconoscimento facciale, Cina e India stanno registrando la crescita più rapida nel settore. Alla fine del 2018 in Cina erano in uso oltre 200 milioni di telecamere di sorveglianza e se ne prevedono 626 milioni entro il 2020. Ciò è legato al sistema di credito sociale che il governo cinese sta sviluppando e alle ambizioni di Pechino nell'intelligenza artificiale. Sorprendentemente, la Cina fornisce una forte protezione dei dati biometrici contro entità private, come evidenziato in uno studio dall'esperto di privacy Emmanuel Pernot-Leplay. Si prevede che il riconoscimento facciale sarà un tema significativo per i Giochi Olimpici del 2021 a Tokyo. Per la prima volta sarà utilizzata la tecnologia NeoFace per identificare le persone autorizzate e concedere loro l’accesso automaticamente, garantendo elevati standard di sicurezza e dimezzando i tempi di attesa rispetto alla precedente tecnologia a raggi X.
Mentre l’Unione europea ha scelto un approccio rigoroso nella protezione dei dati, approvando nel 2018 il Regolamento generale sulla protezione dei dati (Gdpr) direttamente applicabile da tutti i Paesi membri, negli Stati Uniti le preoccupazioni in materia di privacy e diritti civili sono aumentate, per le falle che il riconoscimento facciale ha evidenziato come strumento di indagine. Le procedure di analisi dei dati sono state talvolta compromesse o falsate da elementi discriminatori presenti negli algoritmi, in particolare su colore della pelle, sesso ed età. Diverse città ne hanno già vietato l’uso (San Francisco, Somerville, Oakland, San Diego, Boston). Nel maggio 2019, la deputata di New York Alexandria Ocasio-Cortez ha espresso serie preoccupazioni in un’audizione della commissione sulla tecnologia di riconoscimento facciale.
Uno studio del 2019 curato dal MIT ha rilevato che il servizio di riconoscimento facciale di Amazon, Rekognition, mostrava pregiudizi etnici e di genere, non riuscendo a determinare in modo affidabile il sesso dei volti femminili e dalla pelle più scura in scenari specifici. Amazon ha deciso di vietare per un anno alla polizia di utilizzare la sua tecnologia di riconoscimento facciale. La società non ha fornito una ragione concreta di questa decisione, limitandosi a citare la necessità di una regolamentazione federale: “Stiamo spingendo per normative governative più rigorose sull’uso etico delle tecnologie di riconoscimento facciale e il Congresso sembra pronto a raccogliere la sfida. Speriamo che questa moratoria di un anno possa dare al Congresso tempo sufficiente per attuare le regole appropriate e siamo pronti a fornire aiuto se richiesto”. In questi mesi negli Stati Uniti, attivisti e gruppi per i diritti civili hanno denunciato il rischio che le forze dell’ordine possano utilizzare in modo discriminatorio sistemi di tracciamento per identificare le persone che partecipano alle manifestazioni di piazza organizzate dopo la morte di George Floyd.
di Andrea De Tommasi