Ora che abbiamo una comprensione migliore dei concetti di base dell'IA, siamo in una posizione decisamente migliore per partecipare a una discussione razionale sulle implicazioni dell'attuale IA.
L'IA e in particolare il machine learning sono usati per prendere decisioni importanti in molti settori. Ciò ci porta al concetto di bias algoritmico, che indica l'incorporazione di una tendenza a discriminare in base all'etnia, al genere o ad altri fattori quando si prendono decisioni su domande di lavoro, mutui bancari e così via.
Nota
La causa principale del bias algoritmico è il pregiudizio umano contenuto nei dati. Per esempio, quando uno strumento di filtraggio delle domande di lavoro è allenato su decisioni prese dagli esseri umani, l’algoritmo di machine learning potrebbe imparare a discriminare le donne o le persone di una determinata etnia. Si noti che ciò potrebbe accadere anche se l’etnia o il genere sono esclusi dai dati, in quanto l’algoritmo sarà in grado di sfruttare le informazioni presenti nel nome o nell’indirizzo del candidato.
Il bias algoritmico non è una minaccia ipotetica concepita da ricercatori accademici. È un fenomeno reale che sta già avendo ripercussioni nella società contemporanea.
È stato notato che nelle pubblicità online proposte per esempio da Google vi è una tendenza a mostrare le inserzioni relative a lavori con retribuzione più bassa alle utenti donne piuttosto che agli uomini. Analogamente, effettuando una ricerca con un nome che suona afroamericano si potrebbe visualizzare una pubblicità di uno strumento per accedere ai casellari giudiziari, il che è meno probabile che accada nel caso di altre ricerche.
Poiché i social network basano le loro raccomandazioni di contenuti sostanzialmente sui clic di altri utenti, potrebbero facilmente condurre a un'amplificazione dei pregiudizi esistenti anche se questi all'inizio sono soltanto minimi. Per esempio si è osservato che, quando si cercano professioniste con nomi femminili, LinkedIn chiede all'utente se non stesse in realtà cercando un nome maschile analogo: quando si cerca il nome Giulia il sistema chiederà "intendevi Giulio"? Se si dovesse cliccare occasionalmente sul profilo di Giulio, magari solo per curiosità, il sistema metterà Giulio ancora più in risalto nelle ricerche successive.
Vi sono numerosi altri esempi che potremmo menzionare e di cui avrete probabilmente avuto notizia dagli organi di stampa. La difficoltà principale nell'uso dell'IA e del machine learning invece dei sistemi basati su regole è la loro mancanza di trasparenza. Ciò è in parte una conseguenza del fatto che gli algoritmi e i dati sono segreti commerciali che difficilmente le imprese riveleranno al pubblico. E anche se lo facessero, spesso potrebbe essere difficile identificare la parte dell'algoritmo o gli elementi dei dati che determinano le decisioni discriminanti.
Nota
Un importante passo avanti verso la trasparenza è il regolamento generale sulla protezione dei dati (GDPR), che prevede che tutte le aziende stabilite nell’Unione europea o con clienti europei debbano:
L'ultimo punto significa, in altre parole, che aziende come Facebook e Google devono spiegare i loro processi decisionali algoritmici almeno quando forniscono servizi a utenti europei. Tuttavia, non è ancora chiaro cosa si intenda esattamente con spiegazione. Una decisione presa usando il classificatore Nearest Neighbor (Capitolo 4) vale per esempio come decisione spiegabile? O sarebbero meglio i coefficienti di un classificatore di regressione logistica? E come la mettiamo con le reti neurali profonde che interessano milioni di parametri allenati usando terabyte di dati? La discussione sull'implementazione tecnica riguardante la spiegabilità delle decisioni basate sul machine learning è attualmente intensa. In ogni caso, il GDPR ha il potenziale per migliorare la trasparenza delle tecnologie di IA.
Siamo abituati a credere a ciò che vediamo. Quando vediamo un leader in TV che afferma che il suo paese ingaggerà una guerra commerciale con un altro paese, o quando il portavoce di una famosa società annuncia un'importante decisione aziendale, tendiamo a fidarci di più che se leggessimo la dichiarazione riportata in un articolo scritto da qualcun altro.
Analogamente, quando vediamo le prove fotografiche di una scena del crimine o della dimostrazione di un nuovo gadget tecnologico, diamo più peso a tali prove che non a una relazione scritta in cui si spiegano i fatti.
Naturalmente, siamo consapevoli della possibilità di fabbricare prove false. Grazie al photoshop, le persone possono essere collocate in luoghi in cui non sono mai state, con persone che non hanno mai incontrato. È anche possibile modificare l'apparenza delle cose semplicemente regolando la luminosità o tirando in dentro la pancia in immagini del tipo "prima-dopo" a buon mercato che pubblicizzano l'ultima pillola dimagrante.
Nota
Face2Face (in inglese) è un sistema in grado di identificare le espressioni facciali di una persona e trasferirle sulla faccia di un’altra persona in un video su Youtube.
Lyrebird (in inglese) è uno strumento per l’imitazione automatica della voce di una persona partendo da una registrazione campione di qualche minuto. Anche se l’audio generato ha ancora un evidente tono robotico, l’impressione che fa è piuttosto buona.
Ormai da tempo si sa che le aziende tecnologiche raccolgono un gran numero di informazioni sui loro utenti. In passato erano soprattutto i supermercati e altri rivenditori al dettaglio a raccogliere i dati sugli acquisti offrendo ai propri clienti carte fedeltà che consentono all'esercizio commerciale di associare gli acquisti ai singoli clienti.
Nota
La precisione dei dati raccolti da società tecnologiche come Facebook, Google, Amazon e molte altre va ben al di là dei dati sugli acquisti raccolti dagli esercizi commerciali tradizionali: in linea di principio, è possibile registrare ogni clic, ogni pagina visitata e il tempo trascorso a visualizzare qualsiasi contenuto. I siti web possono anche accedere alla vostra cronologia di navigazione per cui, a meno che non usiate la modalità incognito (o simile), dopo aver cercato voli per Barcellona su un sito riceverete probabilmente pubblicità di alberghi a Barcellona.
Tuttavia, il tipo di registrazione dei dati di cui sopra non è ancora IA. L'utilizzo dell'IA determina nuove minacce alla nostra privacy, che potrebbe essere più difficile evitare anche se siete prudenti nel rivelare la vostra identità.
Un buon esempio di problema difficile da evitare è la deanonimizzazione, che consiste nel violare l'anonimato di dati che credevamo essere al sicuro. Il problema di base è che quando riferiamo i risultati di un'analisi, questi possono essere così specifici da consentire di apprendere qualche informazione sui singoli utenti i cui dati sono inclusi nell'analisi. Un classico esempio è quando si chiede la retribuzione media delle persone nate in un determinato anno e che hanno un particolare codice di avviamento postale. In molti casi potrebbe trattarsi di un gruppo molto piccolo di persone, addirittura spesso di una sola persona, quindi è possibile che i dati forniti riguardino la retribuzione di una persona specifica.
Un esempio interessante di una problematica più sottile è stato posto in evidenza dai ricercatori dell'università del Texas a Austin. Questi hanno studiato un set di dati pubblico messo a disposizione da Netflix e contenente dieci milioni di valutazioni di film espresse da circa 500 000 utenti anonimi, mostrando che molti degli utenti di Netflix possono essere effettivamente collegati ad account di utenti dell'Internet Movie Database in quanto avevano valutato diversi film in entrambe le applicazioni. I ricercatori hanno così potuto deanonimizzare i dati di Netflix. Anche se magari non ritenete essere un grosso problema il fatto che qualcun altro sappia come avete valutato l'ultimo film di Guerre stellari, alcuni film possono rivelare aspetti delle vostre vite (legati per esempio alla politica o alla sessualità) che avreste il diritto di mantenere privati.
Un approccio analogo potrebbe essere usato in linea di principio per trovare corrispondenze tra gli account degli utenti in quasi tutti i servizi che raccolgono dati dettagliati sui comportamenti degli utenti. Un altro esempio sono i modelli di digitazione. I ricercatori dell'università di Helsinki hanno dimostrato che è possibile identificare gli utenti sulla base dei loro modelli di digitazione: i brevi intervalli tra battute specifiche quando si digita un testo. Ciò può significare che, se qualcuno ha accesso ai dati relativi al vostro modalità di digitazione (magari avete usato il suo sito web e vi siete registrati immettendo il vostro nome), potrà identificarvi la prossima volta che userete il suo servizio anche se avete esplicitamente rifiutato di identificarvi. Inoltre potrà vendere tali informazioni a chiunque voglia acquistarle.
Anche se molti degli esempi che precedono sono stati almeno in parte delle sorprese (altrimenti avrebbero potuto essere evitati), vi sono molte ricerche in corso che stanno cercando di affrontarli. In particolare, un ambito denominato privacy differenziale si propone di sviluppare algoritmi di machine learning in grado di garantire che i risultati siano sufficientemente grezzi da impedire operazioni di ingegneria inversa su specifici punti di dati che sono confluiti in essi.
Quando i primi esseri umani impararono a usare una pietra appuntita per rompere le ossa di animali morti e accedere a una nuova fonte di nutrimento, ciò lasciò loro tempo ed energie per altre attività come combattere, trovare una compagna o un compagno e fare altre invenzioni. L'invenzione del motore a vapore nei primi del Settecento diede luogo a una forma facilmente portatile di potenza meccanica che migliorò enormemente l'efficienza delle fabbriche come pure di navi e treni. L'automazione è sempre stata una via verso l'efficienza: ottenere di più con meno. Soprattutto a partire dalla metà del XX secolo, lo sviluppo tecnologico ha condotto a un periodo di progressi senza precedenti nel campo dell'automazione. L'IA è una continuazione di tali progressi.
Ogni passo verso una migliore automazione cambia la vita lavorativa. Con una pietra appuntita c'è stato meno bisogno di cacciare e raccogliere cibo; con il motore a vapore c'è stato meno bisogno di cavalli e cavalieri; con il computer c'è meno bisogno di dattilografe o dattilografi, contabilità manuale e molte altre forme di elaborazione dei dati (e apparentemente più bisogno di guardare video di gatti). Con l'IA e la robotica, c'è persino meno bisogno di molti tipi di lavori noiosi e ripetitivi.
Nota
In passato, ogni volta che è stato automatizzato un tipo di lavoro, le persone hanno trovato nuovi modi per sostituirlo. I nuovi tipi di lavoro sono meno ripetitivi e routinari, oltre a essere più variabili e creativi. Il problema con l’attuale velocità di progresso dell’IA e di altre tecnologie è che durante la carriera di una persona il cambiamento della vita lavorativa potrebbe essere maggiore di quanto si sia mai visto in passato. È lecito immaginare che alcuni lavori come guidare un camion o un taxi possano scomparire nel giro di qualche anno. Un così brusco cambiamento potrebbe causare una disoccupazione di massa, in quanto le persone non avrebbero il tempo di prepararsi per altri tipi di lavoro.
L’azione preventiva più importante per evitare enormi problemi sociali come questo è aiutare i giovani a ricevere un’istruzione ad ampio spettro. Ciò fornisce una base per candidarsi a molti lavori diversi e non ad alto rischio di divenire obsoleti nel prossimo futuro.
È altrettanto importante sostenere l’apprendimento permanente e l’apprendimento sul luogo di lavoro, in quanto solo pochi di noi faranno lo stesso lavoro per tutta la loro carriera. Ridurre le ore settimanali aiuterebbe a offrire lavoro a più persone, ma le leggi dell’economia tendono a spingere le persone a lavorare di più e non di meno, salvo che sia introdotta una politica pubblica che disciplini la quantità di lavoro.
Non potendo prevedere il futuro dell'IA, è difficile prevedere la velocità e l'entità di un simile sviluppo. Sono state formulate alcune stime riguardo al grado di automazione del lavoro secondo cui fino al 47 % dei lavori negli USA è a rischio (in inglese) come riferito dai ricercatori dell'università di Oxford. I numeri esatti come questo (47 % e non 45 % o 49 %), i complicati progetti di studio usati per ottenerli e le università di alto livello che riferiscono tali cifre rendono le stime tendenzialmente molto affidabili e precise (ricordate il punto relativo alla stima dell'aspettativa di vita attraverso un modello lineare basato su una quantità limitata di dati). Ma l'illusione della precisione al punto percentuale è un inganno. Il numero di cui sopra, per esempio, si basa sull'osservazione di una vasta quantità di descrizioni di lavori (magari fatta inumidendo con la lingua la punta dell'indice e alzandolo in aria per sentire il vento) e sull'utilizzo di ragioni soggettive per decidere quali compiti saranno probabilmente automatizzati. È comprensibile che le persone non si prendano la briga di leggere una relazione di 79 pagine in cui appaiono affermazioni del tipo "il modello di compito ipotizza per la trattabilità una funzione di produzione Cobb-Douglas aggregata con rendimenti di scala costanti". Tuttavia, se non la leggete dovreste anche essere scettici riguardo alle conclusioni. Il vero valore di questo genere di analisi sta nel fatto che suggerisce quali tipi di lavori saranno più probabilmente a rischio, non nei numeri concreti come 47 %. Il dramma è che si ricordano soltanto i titoli che annunciano che "quasi la metà dei lavori negli USA sono a rischio di computerizzazione" e non tutto il resto.
Ma quali sono allora i compiti che saranno più probabilmente automatizzati? Vi sono alcuni chiari segnali che possiamo già osservare:
Da un lato è difficile prevedere quando avremo auto a guida autonoma sicure e affidabili e altre soluzioni in grado di sostituire il lavoro umano. Oltre a questo, non dobbiamo dimenticare che un autista di camion o taxi non gira soltanto un volante: è anche responsabile di assicurarsi che il veicolo funzioni correttamente, movimenta merci e tratta con i clienti, garantisce la sicurezza del carico e dei passeggeri e assolve un gran numero di altri compiti che potrebbero essere molto più difficili da automatizzare della guida fine a sé stessa.
Come con i precedenti progressi tecnologici, vi sarà anche nuovo lavoro che sarà creato grazie all'IA. È probabile che in futuro una parte più ampia della forza lavoro si concentrerà sulla ricerca e lo sviluppo e sui compiti che richiedono creatività e interazione tra esseri umani. Per maggiori informazioni su questo argomento, potete consultare per esempio il bel saggio di Abhinav Suri intitolato Artificial Intelligence and the Rise of Economic Inequality (Intelligenza artificiale e ascesa delle disuguaglianze economiche, in inglese).