II. Le implicazioni sociali dell’IA

All'inizio di questo corso abbiamo discusso brevemente l'importanza dell'IA nella società di oggi e di domani, ma in quel momento abbiamo potuto farlo soltanto in misura limitata in quanto non avevamo ancora sufficientemente introdotto i concetti tecnici e i metodi su cui fondare la discussione in termini concreti.

Ora che abbiamo una comprensione migliore dei concetti di base dell'IA, siamo in una posizione decisamente migliore per partecipare a una discussione razionale sulle implicazioni dell'attuale IA.

un uomo e una donna

Implicazione 1: bias algoritmico

L'IA e in particolare il machine learning sono usati per prendere decisioni importanti in molti settori. Ciò ci porta al concetto di bias algoritmico, che indica l'incorporazione di una tendenza a discriminare in base all'etnia, al genere o ad altri fattori quando si prendono decisioni su domande di lavoro, mutui bancari e così via.

Nota

Ancora una volta, è tutta una questione di dati

La causa principale del bias algoritmico è il pregiudizio umano contenuto nei dati. Per esempio, quando uno strumento di filtraggio delle domande di lavoro è allenato su decisioni prese dagli esseri umani, l’algoritmo di machine learning potrebbe imparare a discriminare le donne o le persone di una determinata etnia. Si noti che ciò potrebbe accadere anche se l’etnia o il genere sono esclusi dai dati, in quanto l’algoritmo sarà in grado di sfruttare le informazioni presenti nel nome o nell’indirizzo del candidato.

Il bias algoritmico non è una minaccia ipotetica concepita da ricercatori accademici. È un fenomeno reale che sta già avendo ripercussioni nella società contemporanea.

Pubblicità online

È stato notato che nelle pubblicità online proposte per esempio da Google vi è una tendenza a mostrare le inserzioni relative a lavori con retribuzione più bassa alle utenti donne piuttosto che agli uomini. Analogamente, effettuando una ricerca con un nome che suona afroamericano si potrebbe visualizzare una pubblicità di uno strumento per accedere ai casellari giudiziari, il che è meno probabile che accada nel caso di altre ricerche.

Social network

Poiché i social network basano le loro raccomandazioni di contenuti sostanzialmente sui clic di altri utenti, potrebbero facilmente condurre a un'amplificazione dei pregiudizi esistenti anche se questi all'inizio sono soltanto minimi. Per esempio si è osservato che, quando si cercano professioniste con nomi femminili, LinkedIn chiede all'utente se non stesse in realtà cercando un nome maschile analogo: quando si cerca il nome Giulia il sistema chiederà "intendevi Giulio"? Se si dovesse cliccare occasionalmente sul profilo di Giulio, magari solo per curiosità, il sistema metterà Giulio ancora più in risalto nelle ricerche successive.

Vi sono numerosi altri esempi che potremmo menzionare e di cui avrete probabilmente avuto notizia dagli organi di stampa. La difficoltà principale nell'uso dell'IA e del machine learning invece dei sistemi basati su regole è la loro mancanza di trasparenza. Ciò è in parte una conseguenza del fatto che gli algoritmi e i dati sono segreti commerciali che difficilmente le imprese riveleranno al pubblico. E anche se lo facessero, spesso potrebbe essere difficile identificare la parte dell'algoritmo o gli elementi dei dati che determinano le decisioni discriminanti.

Nota

Ottenere trasparenza attraverso la regolamentazione?

Un importante passo avanti verso la trasparenza è il regolamento generale sulla protezione dei dati (GDPR), che prevede che tutte le aziende stabilite nell’Unione europea o con clienti europei debbano:

  • dietro richiesta, rivelare quali dati hanno raccolto a proposito di qualsiasi persona (diritto di accesso);
  • cancellare i dati che non devono essere conservati per ottemperare ad altri obblighi, ove richiesto (diritto all’oblio);
  • fornire una spiegazione del trattamento dei dati effettuato in relazione ai dati del cliente (diritto a ottenere spiegazioni).

L'ultimo punto significa, in altre parole, che aziende come Facebook e Google devono spiegare i loro processi decisionali algoritmici almeno quando forniscono servizi a utenti europei. Tuttavia, non è ancora chiaro cosa si intenda esattamente con spiegazione. Una decisione presa usando il classificatore Nearest Neighbor (Capitolo 4) vale per esempio come decisione spiegabile? O sarebbero meglio i coefficienti di un classificatore di regressione logistica? E come la mettiamo con le reti neurali profonde che interessano milioni di parametri allenati usando terabyte di dati? La discussione sull'implementazione tecnica riguardante la spiegabilità delle decisioni basate sul machine learning è attualmente intensa. In ogni caso, il GDPR ha il potenziale per migliorare la trasparenza delle tecnologie di IA.

occhi

Implicazione 2: vedere per credere... ma è davvero così?

Siamo abituati a credere a ciò che vediamo. Quando vediamo un leader in TV che afferma che il suo paese ingaggerà una guerra commerciale con un altro paese, o quando il portavoce di una famosa società annuncia un'importante decisione aziendale, tendiamo a fidarci di più che se leggessimo la dichiarazione riportata in un articolo scritto da qualcun altro.

Analogamente, quando vediamo le prove fotografiche di una scena del crimine o della dimostrazione di un nuovo gadget tecnologico, diamo più peso a tali prove che non a una relazione scritta in cui si spiegano i fatti.

Naturalmente, siamo consapevoli della possibilità di fabbricare prove false. Grazie al photoshop, le persone possono essere collocate in luoghi in cui non sono mai state, con persone che non hanno mai incontrato. È anche possibile modificare l'apparenza delle cose semplicemente regolando la luminosità o tirando in dentro la pancia in immagini del tipo "prima-dopo" a buon mercato che pubblicizzano l'ultima pillola dimagrante.

Nota

L’IA sta portando le possibilità di fabbricare prove a un livello completamente nuovo.

Face2Face (in inglese) è un sistema in grado di identificare le espressioni facciali di una persona e trasferirle sulla faccia di un’altra persona in un video su Youtube.

Lyrebird (in inglese) è uno strumento per l’imitazione automatica della voce di una persona partendo da una registrazione campione di qualche minuto. Anche se l’audio generato ha ancora un evidente tono robotico, l’impressione che fa è piuttosto buona.

telecamera di sorveglianza

Implicazione 3: cambiano le nozioni di privacy

Ormai da tempo si sa che le aziende tecnologiche raccolgono un gran numero di informazioni sui loro utenti. In passato erano soprattutto i supermercati e altri rivenditori al dettaglio a raccogliere i dati sugli acquisti offrendo ai propri clienti carte fedeltà che consentono all'esercizio commerciale di associare gli acquisti ai singoli clienti.

Nota

Precisione dei dati senza precedenti

La precisione dei dati raccolti da società tecnologiche come Facebook, Google, Amazon e molte altre va ben al di là dei dati sugli acquisti raccolti dagli esercizi commerciali tradizionali: in linea di principio, è possibile registrare ogni clic, ogni pagina visitata e il tempo trascorso a visualizzare qualsiasi contenuto. I siti web possono anche accedere alla vostra cronologia di navigazione per cui, a meno che non usiate la modalità incognito (o simile), dopo aver cercato voli per Barcellona su un sito riceverete probabilmente pubblicità di alberghi a Barcellona.

Tuttavia, il tipo di registrazione dei dati di cui sopra non è ancora IA. L'utilizzo dell'IA determina nuove minacce alla nostra privacy, che potrebbe essere più difficile evitare anche se siete prudenti nel rivelare la vostra identità.

Usare l'analisi dei dati per identificare le persone

Un buon esempio di problema difficile da evitare è la deanonimizzazione, che consiste nel violare l'anonimato di dati che credevamo essere al sicuro. Il problema di base è che quando riferiamo i risultati di un'analisi, questi possono essere così specifici da consentire di apprendere qualche informazione sui singoli utenti i cui dati sono inclusi nell'analisi. Un classico esempio è quando si chiede la retribuzione media delle persone nate in un determinato anno e che hanno un particolare codice di avviamento postale. In molti casi potrebbe trattarsi di un gruppo molto piccolo di persone, addirittura spesso di una sola persona, quindi è possibile che i dati forniti riguardino la retribuzione di una persona specifica.

Un esempio interessante di una problematica più sottile è stato posto in evidenza dai ricercatori dell'università del Texas a Austin. Questi hanno studiato un set di dati pubblico messo a disposizione da Netflix e contenente dieci milioni di valutazioni di film espresse da circa 500 000 utenti anonimi, mostrando che molti degli utenti di Netflix possono essere effettivamente collegati ad account di utenti dell'Internet Movie Database in quanto avevano valutato diversi film in entrambe le applicazioni. I ricercatori hanno così potuto deanonimizzare i dati di Netflix. Anche se magari non ritenete essere un grosso problema il fatto che qualcun altro sappia come avete valutato l'ultimo film di Guerre stellari, alcuni film possono rivelare aspetti delle vostre vite (legati per esempio alla politica o alla sessualità) che avreste il diritto di mantenere privati.

Altri metodi di identificazione

Un approccio analogo potrebbe essere usato in linea di principio per trovare corrispondenze tra gli account degli utenti in quasi tutti i servizi che raccolgono dati dettagliati sui comportamenti degli utenti. Un altro esempio sono i modelli di digitazione. I ricercatori dell'università di Helsinki hanno dimostrato che è possibile identificare gli utenti sulla base dei loro modelli di digitazione: i brevi intervalli tra battute specifiche quando si digita un testo. Ciò può significare che, se qualcuno ha accesso ai dati relativi al vostro modalità di digitazione (magari avete usato il suo sito web e vi siete registrati immettendo il vostro nome), potrà identificarvi la prossima volta che userete il suo servizio anche se avete esplicitamente rifiutato di identificarvi. Inoltre potrà vendere tali informazioni a chiunque voglia acquistarle.

Anche se molti degli esempi che precedono sono stati almeno in parte delle sorprese (altrimenti avrebbero potuto essere evitati), vi sono molte ricerche in corso che stanno cercando di affrontarli. In particolare, un ambito denominato privacy differenziale si propone di sviluppare algoritmi di machine learning in grado di garantire che i risultati siano sufficientemente grezzi da impedire operazioni di ingegneria inversa su specifici punti di dati che sono confluiti in essi.

robot che lavora con un computer portatile

Implicazione 4: cambia anche il lavoro

Quando i primi esseri umani impararono a usare una pietra appuntita per rompere le ossa di animali morti e accedere a una nuova fonte di nutrimento, ciò lasciò loro tempo ed energie per altre attività come combattere, trovare una compagna o un compagno e fare altre invenzioni. L'invenzione del motore a vapore nei primi del Settecento diede luogo a una forma facilmente portatile di potenza meccanica che migliorò enormemente l'efficienza delle fabbriche come pure di navi e treni. L'automazione è sempre stata una via verso l'efficienza: ottenere di più con meno. Soprattutto a partire dalla metà del XX secolo, lo sviluppo tecnologico ha condotto a un periodo di progressi senza precedenti nel campo dell'automazione. L'IA è una continuazione di tali progressi.

Ogni passo verso una migliore automazione cambia la vita lavorativa. Con una pietra appuntita c'è stato meno bisogno di cacciare e raccogliere cibo; con il motore a vapore c'è stato meno bisogno di cavalli e cavalieri; con il computer c'è meno bisogno di dattilografe o dattilografi, contabilità manuale e molte altre forme di elaborazione dei dati (e apparentemente più bisogno di guardare video di gatti). Con l'IA e la robotica, c'è persino meno bisogno di molti tipi di lavori noiosi e ripetitivi.

Nota

Una storia all’insegna della ricerca di nuove cose da fare

In passato, ogni volta che è stato automatizzato un tipo di lavoro, le persone hanno trovato nuovi modi per sostituirlo. I nuovi tipi di lavoro sono meno ripetitivi e routinari, oltre a essere più variabili e creativi. Il problema con l’attuale velocità di progresso dell’IA e di altre tecnologie è che durante la carriera di una persona il cambiamento della vita lavorativa potrebbe essere maggiore di quanto si sia mai visto in passato. È lecito immaginare che alcuni lavori come guidare un camion o un taxi possano scomparire nel giro di qualche anno. Un così brusco cambiamento potrebbe causare una disoccupazione di massa, in quanto le persone non avrebbero il tempo di prepararsi per altri tipi di lavoro.

L’azione preventiva più importante per evitare enormi problemi sociali come questo è aiutare i giovani a ricevere un’istruzione ad ampio spettro. Ciò fornisce una base per candidarsi a molti lavori diversi e non ad alto rischio di divenire obsoleti nel prossimo futuro.

È altrettanto importante sostenere l’apprendimento permanente e l’apprendimento sul luogo di lavoro, in quanto solo pochi di noi faranno lo stesso lavoro per tutta la loro carriera. Ridurre le ore settimanali aiuterebbe a offrire lavoro a più persone, ma le leggi dell’economia tendono a spingere le persone a lavorare di più e non di meno, salvo che sia introdotta una politica pubblica che disciplini la quantità di lavoro.

Non potendo prevedere il futuro dell'IA, è difficile prevedere la velocità e l'entità di un simile sviluppo. Sono state formulate alcune stime riguardo al grado di automazione del lavoro secondo cui fino al 47 % dei lavori negli USA è a rischio (in inglese) come riferito dai ricercatori dell'università di Oxford. I numeri esatti come questo (47 % e non 45 % o 49 %), i complicati progetti di studio usati per ottenerli e le università di alto livello che riferiscono tali cifre rendono le stime tendenzialmente molto affidabili e precise (ricordate il punto relativo alla stima dell'aspettativa di vita attraverso un modello lineare basato su una quantità limitata di dati). Ma l'illusione della precisione al punto percentuale è un inganno. Il numero di cui sopra, per esempio, si basa sull'osservazione di una vasta quantità di descrizioni di lavori (magari fatta inumidendo con la lingua la punta dell'indice e alzandolo in aria per sentire il vento) e sull'utilizzo di ragioni soggettive per decidere quali compiti saranno probabilmente automatizzati. È comprensibile che le persone non si prendano la briga di leggere una relazione di 79 pagine in cui appaiono affermazioni del tipo "il modello di compito ipotizza per la trattabilità una funzione di produzione Cobb-Douglas aggregata con rendimenti di scala costanti". Tuttavia, se non la leggete dovreste anche essere scettici riguardo alle conclusioni. Il vero valore di questo genere di analisi sta nel fatto che suggerisce quali tipi di lavori saranno più probabilmente a rischio, non nei numeri concreti come 47 %. Il dramma è che si ricordano soltanto i titoli che annunciano che "quasi la metà dei lavori negli USA sono a rischio di computerizzazione" e non tutto il resto.

Ma quali sono allora i compiti che saranno più probabilmente automatizzati? Vi sono alcuni chiari segnali che possiamo già osservare:

  • le soluzioni di robotica autonoma come i veicoli a guida autonoma, compresi auto, droni e barche o traghetti (in inglese), non sono ancora pronte per un'applicazione commerciale a tutti gli effetti. La sicurezza delle auto a guida autonoma è difficile da stimare, ma la statistica suggerisce che probabilmente non è ancora al livello richiesto (il livello di un guidatore umano medio). Tuttavia, i progressi sono stati incredibilmente rapidi e stanno accelerando grazie al volume crescente di dati disponibili.
  • Le applicazioni di servizi per i clienti come gli helpdesk possono essere automatizzate in modo molto efficiente in termini di costi. Per il momento la qualità del servizio non è sempre ottimale, con problematiche quali l'elaborazione del linguaggio (il sistema non è in grado di riconoscere il linguaggio parlato o di fare l'analisi grammaticale) e la logica e il ragionamento richiesti per fornire il servizio vero e proprio. Tuttavia spuntano continuamente applicazioni operative in ambiti ristretti (come per esempio prenotare un ristorante o il parrucchiere, in inglese).

Da un lato è difficile prevedere quando avremo auto a guida autonoma sicure e affidabili e altre soluzioni in grado di sostituire il lavoro umano. Oltre a questo, non dobbiamo dimenticare che un autista di camion o taxi non gira soltanto un volante: è anche responsabile di assicurarsi che il veicolo funzioni correttamente, movimenta merci e tratta con i clienti, garantisce la sicurezza del carico e dei passeggeri e assolve un gran numero di altri compiti che potrebbero essere molto più difficili da automatizzare della guida fine a sé stessa.

Come con i precedenti progressi tecnologici, vi sarà anche nuovo lavoro che sarà creato grazie all'IA. È probabile che in futuro una parte più ampia della forza lavoro si concentrerà sulla ricerca e lo sviluppo e sui compiti che richiedono creatività e interazione tra esseri umani. Per maggiori informazioni su questo argomento, potete consultare per esempio il bel saggio di Abhinav Suri intitolato Artificial Intelligence and the Rise of Economic Inequality (Intelligenza artificiale e ascesa delle disuguaglianze economiche, in inglese).

Caricamento esercizio...