Sad kad bolje vladamo osnovnim pojmovima iz područja umjetne inteligencije, mnogo nam je lakše upustiti se u racionalnu raspravu o posljedicama sadašnjih načina njezine primjene.
Umjetna inteligencija, a posebno strojno učenje, primjenjuje se za donošenje važnih odluka u mnogim sektorima. To nas dovodi do pojma „algoritamska pristranost”. Taj se pojam odnosi na sklonost diskriminaciji na temelju etničkog podrijetla, roda ili drugih čimbenika pri donošenju odluka o prijavama za posao, bankovnim kreditima itd.
Dobro je znati
Glavni razlog algoritamske pristranosti ljudska je pristranost u podacima. Na primjer, ako alat za filtriranje prijava za posao uči iz odluka koje su donijeli ljudi, moguće je da će algoritam strojnog učenja naučiti diskriminirati žene ili osobe određenog etničkog podrijetla. To je moguće čak i ako su etničko podrijetlo ili rod izostavljeni iz podataka jer će algoritam te informacije moći utvrditi na temelju imena i prezimena ili adrese kandidata.
Algoritamska pristranost nije hipotetska prijetnja koju su izmislili znanstvenici. Riječ je o stvarnoj pojavi koja već danas utječe na ljude.
Internetski oglašivači, kao što je Google, češće prikazuju oglase za slabije plaćena radna mjesta ženama nego muškarcima. Isto tako, kada sadržaje na internetu pretražuju korisnici čije ime zvuči kao afroameričko, mogu naići na oglas za aplikaciju za pristup kaznenim evidencijama, dok se to u drugim slučajevima vjerojatno neće dogoditi.
S obzirom na to da svoje preporuke sadržaja ponajprije temelje na klikovima drugih korisnika, društvene mreže mogu lako pridonijeti povećanju postojećih predrasuda čak i ako su na početku bezazlene. Na primjer, uočeno je da pri pretraživanju stručnjaka sa ženskim imenima na LinkedInu sustav pita korisnika je li zapravo mislio na slično muško ime: ako tražite korisnike ženskog imena „Andrea”, sustav vas pita „jeste li mislili ‘Andrew’?”. Ako ljudi povremeno iz puke znatiželje kliknu na profil dotičnog Andrewa, sustav će pri sljedećim pretraživanjima dodatno povećati pojavnost imena „Andrew”.
Postoje još mnogi primjeri koje bismo mogli spomenuti, a vjerojatno ste naišli i na novinske članke o njima. Glavna poteškoća pri primjeni umjetne inteligencije i strojnog učenja umjesto sustava koji se temelje na pravilima, njihova je nedostatna transparentnost. Do toga je dijelom došlo zato što se određeni algoritmi i podaci smatraju poslovnim tajnama koje poduzeća ne žele dati na uvid javnosti. A čak i kad bi to učinila, bilo bi teško prepoznati dio algoritma ili elemente podataka koji dovode do diskriminirajućih odluka.
Dobro je znati
Velik korak prema transparentnosti učinila je Europska unija donošenjem Opće uredbe o zaštiti podataka (engl. General Data Protection Regulation, GDPR). Njome se od svih poduzeća koja su registrirana u Europskoj uniji ili posluju s europskim klijentima zahtijeva:
Zadnja stavka znači, drugim riječima, da poduzeća kao što su Facebook i Google moraju, barem kad pružaju usluge europskim korisnicima, objasniti svoje algoritamske postupke donošenja odluka. Međutim, i dalje nije jasno što se točno smatra obrazloženjem. Smatra li se, na primjer, odluka donesena metodom klasifikatora najbližih susjeda (četvrto poglavlje) odlukom koja se može obrazložiti ili bi za to bili bolji koeficijenti iz metode logističke regresije? A što s dubokim neuronskim mrežama koje su naučile milijune parametara iz terabajta i terabajta podataka? U tijeku su žustre rasprave o tehničkoj provedbi obrazloženja odluka koje se temelje na strojnom učenju. U svakom slučaju, Općom uredbom o zaštiti podataka mogla bi se poboljšati transparentnost tehnologija umjetne inteligencije.
Naviknuli smo vjerovati u ono što vidimo. Kada na televiziji vidimo čelnika neke države koji govori da će njegova zemlja ući u trgovinski rat s drugom zemljom ili kad glasnogovornik poznatog poduzeća objavi važnu poslovnu odluku, često u to povjerujemo lakše nego kad takve izjave pročitamo iz druge ruke, u vijestima koje su napisale druge osobe.
Slično tomu, kada vidimo fotografski dokaz s mjesta zločina ili s predstavljanja nove pametne sprave, više se oslanjamo na taj dokaz nego na pisano izvješće u kojem se opisuje izgled tog mjesta ili te sprave.
Naravno, svjesni smo i toga da je dokaze moguće lažirati. Fotomontažom se ljudi mogu smjestiti na mjesta na kojima nikad nisu bili, s ljudima koje nikad nisu upoznali. Određeni prizor može se promijeniti i jednostavnom prilagodbom osvjetljenja ili tako da osoba tijekom fotografiranja za jeftine „prije i poslije” reklame za najnovije tablete za mršavljenje uvlači trbuh.
Dobro je znati
S pomoću sustava Face2Face mogu se prepoznati izrazi lica neke osobe koji se zatim mogu prenijeti na lice druge osobe u videozapisu na Youtubeu.
Alat Lyrebird služi za automatsku imitaciju glasa osobe na temelju nekoliko minuta snimljenog uzorka. U generiranom audiozapisu može se razabrati robotski prizvuk, no pokušaj imitacije i dalje je vrlo dobar.
Odavno je poznato da tehnološka poduzeća prikupljaju brojne informacije o svojim korisnicima. Nekad su to uglavnom bile trgovine mješovitom robom i druge maloprodajne trgovine koje su prikupljale podatke o kupnji s pomoću kartica vjernosti (kartica za skupljanje bodova) koje su davale svojim kupcima. Na taj su način mogle povezivati određene obrasce kupnje s pojedinim korisnicima.
Dobro je znati
Točnost podataka koje prikupljaju tehnološka poduzeća kao što su Facebook, Google, Amazon i mnoga druga uvelike nadilazi točnost podataka o kupnji koje su prikupljale obične trgovine: u načelu, može se zabilježiti svaki klik, svako pomicanje stranice i vrijeme koje ste proveli pregledavajući određeni sadržaj. Internetske stranice mogu pristupiti čak i vašoj povijesti pretraživanja. Stoga, ako ne pretražujete anonimno (ili na slične načine pretraživanja), nakon što ste na nekoj stranici tražili letove za Barcelonu, vjerojatno će vam se početi prikazivati oglasi za hotele u Barceloni.
Međutim, opisani način bilježenja podataka u osnovi se još ne smatra umjetnom inteligencijom. Primjena umjetne inteligencije donosi nove vrste prijetnji našoj privatnosti koje će možda biti teže izbjeći bez obzira na to koliko smo oprezni pri otkrivanju svojeg identiteta.
Dobar je primjer problema koji je teško izbjeći deanonimizacija, odnosno uklanjanje anonimnosti podataka za koje smo mislili da su sigurni. Glavni problem nastaje pri navođenju rezultata neke analize. Ti rezultati mogu biti tako detaljni da je iz njih moguće doznati određene informacije o pojedinim korisnicima čiji su podaci analizirani. Tipičan je primjer traženje informacija o prosječnoj plaći osoba koje su rođene određene godine i imaju određeni poštanski broj. U mnogim slučajevima može biti riječ o vrlo maloj skupini ljudi, često o samo jednoj osobi, stoga se možda daju podaci o plaći određene osobe.
Zanimljiv primjer manje očitog problema istaknuli su istraživači sa Sveučilišta u Texasu, u Austinu. Analizirali su javni skup podataka koji je objavio Netflix, a sadržavao je 10 milijuna ocjena filmova od 500 000 anonimnih korisnika. Analiza je pokazala da se mnoge korisnike Netflixa zapravo može povezati s njihovim korisničkim računima na platformi Internet Movie Database jer su neke filmove ocijenili u obje aplikacije. Stoga su istraživači mogli deanonimizirati podatke koje prikupio Netflix. Iako možda smatrate da se neće dogoditi ništa strašno ako netko dozna kako ste ocijenili najnoviji film iz franšize Star Wars na temelju pojedinih filmova mogu se otkriti neki aspekti vašeg života (kao što su politički stavovi ili seksualnost) koje imate pravo zadržati za sebe.
Sličan bi se pristup u načelu mogao primijeniti za povezivanje korisničkih računa za bilo koju uslugu koja prikuplja detaljne podatke o ponašanju korisnika. Drugi je primjer prepoznavanje obrazaca unosa teksta. Istraživači sa Sveučilišta u Helsinkiju dokazali su da je korisnike moguće identificirati prepoznavanjem njihovih obrazaca unosa teksta, odnosno kratkih intervala između pritisaka na određene tipke pri unosu teksta. To znači da vas određeni subjekti koji imaju pristup podacima o vašem obrascu unosa teksta (jer ste možda posjetili njihove internetske stranice i ondje se registrirali tako što ste unijeli svoje ime i prezime) mogu identificirati sljedeći put kad upotrijebite njihove usluge, čak i ako odbijete izravno otkriti svoj identitet. Oni te informacije mogu i prodati bilo kojem potencijalnom kupcu.
Mnogi od prethodnih primjera problema barem su u neku ruku bili neočekivani – u protivnom bi ih bilo moguće izbjeći. No u tijeku su brojna istraživanja o rješenjima tih problema. Konkretno, područje koje se naziva diferencijalna privatnost bavi se razvojem algoritama strojnog učenja s pomoću kojih se mogu dobiti rezultati dovoljno općeniti da se spriječi obrnuti inženjering određenih dijelova podataka sadržanih u rezultatima.
Kad su prvi ljudi naučili oštrim kamenom lomiti kosti mrtvih životinja i pronaći nov izvor hrane, imali su više vremena i energije za borbu, pronalaženje partnera i rad na novim izumima. Izum parnog stroja u 18. stoljeću omogućio je primjenu lako prenosive snage stroja, čime se znatno povećala učinkovitost tvornica, ali i brodova i vlakova. Automatizacija je uvijek bila recept za učinkovitost: kako uz što manje resursa postići što bolje rezultate. Tehnološki je razvoj osobito od sredine 20. stoljeća doveo do razdoblja nezapamćenog napretka automatizacije. Taj se napredak nastavlja razvojem umjetne inteligencije.
Sa svakim korakom prema učinkovitijoj automatizaciji mijenjaju se i poslovi koje obavljamo. S novim načinom uporabe oštrog kamena smanjila se potreba za lovom i prikupljanjem hrane, s izumom parnog stroja smanjila se potreba za konjima i ljudima koji znaju jahati, a s otkrićem računala smanjila se potreba za daktilografima, ručnim vođenjem računa i mnogim drugim načinima obrade podataka (ali se očito povećala potreba za gledanjem filmića s mačkama). Uz umjetnu inteligenciju i robotiku još se više smanjila potreba za zatupljujućim, repetitivnim poslovima.
Dobro je znati
U prošlosti, svaki put kad bi se jedna vrsta posla automatizirala, ljudi bi je zamijenili nekim drugim poslovima. Nove vrste poslova nisu toliko repetitivne i rutinske, nego raznovrsnije i kreativnije. S obzirom na brzinu kojom se trenutačno razvijaju metode umjetne inteligencije i druge tehnologije, promjene koje se dogode tijekom radnog vijeka neke osobe mogle bi biti veće nego ikad prije. Nije teško zamisliti da bi određeni poslovi, npr. vožnja kamiona ili taksija, za nekoliko godina mogli nestati. Takve nagle promjene mogle bi uzrokovati visoku nezaposlenost jer ljudi ne bi imali vremena za prilagodbu i osposobljavanje za druge vrste poslova.
Kako bi se izbjegli tako veliki društveni problemi, najvažnije je djelovati preventivno i pomoći mladim ljudima da steknu široko obrazovanje. Tako se stvaraju temelji za obavljanje raznih poslova koji najvjerojatnije neće nestati u skoroj budućnosti.
Jednako je važno podupirati cjeloživotno učenje i učenje na radnom mjestu jer će jako malo ljudi raditi jedan te isti posao tijekom cijelog radnog vijeka. Kad bi se smanjio broj radnih sati tjedno, bilo bi radnih mjesta za više ljudi, no zbog zakona ekonomije ljudi uglavnom rade više, a ne manje. Tomu bi se eventualno moglo stati na kraj uvođenjem javne politike kojom se uređuje broj radnih sati.
S obzirom na to da ne možemo predvidjeti budućnost umjetne inteligencije, iznimno je teško predvidjeti brzinu i opseg tih promjena. No postoje neke procjene razmjera razvoja automatizacije poslova. Istraživači sa Sveučilišta u Oxfordu procijenili su da je 47 % poslova u SAD-u izloženo riziku. Zbog takvih preciznih brojčanih podataka (stope od 47 %, a ne 45 % ili 49 %), složenih planova istraživanja s pomoću kojih su ti podaci dobiveni i vrhunskih sveučilišta koja izvješćuju o njima, te procjene često zvuče vrlo pouzdano i konkretno (sjetite se što smo utvrdili pri procjeni očekivane životne dobi s pomoću linearnog modela koji se temelji na ograničenoj količini podataka). Privid točnosti koji se stvara iznošenjem točno određenog postotka zapravo je zabluda. Na primjer, gore navedeni brojčani podatak temelji se na analizi velikog broja opisa poslova (kao kad poližete vrh prsta da osjetite odakle puše vjetar) i primjeni subjektivnih osnova za utvrđivanje zadataka koji će se vjerojatno automatizirati. Razumljivo je da se gotovo nitko ne trudi pročitati izvješće od 79 stranica u kojem su iznesene tvrdnje kao što je „u okviru modela zadatka radi traktabilnosti primjenjuje se Cobb-Douglasova funkcija proizvodnje sa zbirnom konstantnom stopom prinosa”. Međutim, ako ga doista niste pročitali, trebali biste biti pomalo skeptični i prema zaključcima. Stvarna vrijednost takve analize leži u tome što se njome utvrđuje koje bi vrste poslova mogle biti ugrožene, a nije riječ o konkretnim brojčanim podacima kao što je 47 %. Tužno je što se u konačnici pamte naslovi o tome da „zbog kompjutorizacije gotovo polovici poslova u SAD-u prijeti rizik od nestanka”, a ostali padaju u zaborav.
Dakle, za koje poslove postoji veća vjerojatnost automatizacije? Neke su naznake o tome već jasno vidljive.
S jedne strane, teško je reći koliko ćemo brzo na raspolaganju imati sigurne i pouzdane autonomne automobile i druga rješenja koja mogu zamijeniti ljudski rad. Ne smijemo zaboraviti ni to da vozači kamiona ili taksisti nisu zaduženi samo za upravljanje vozilom: oni su dužni osigurati i ispravan rad vozila, rukovati robom i pregovarati s korisnicima, zajamčiti sigurnost tereta i putnika te obavljati brojne druge zadaće koje je možda teže automatizirati od same vožnje.
Kao i u slučaju tehnoloških postignuća u prošlosti, zbog razvoja umjetne inteligencije pojavit će se i novi poslovi. U budućnosti će se vjerojatno veći dio radnika posvetiti istraživanju i razvoju te zadaćama koje zahtijevaju kreativnost i interakciju među ljudima. Više o toj temi možete pročitati u zanimljivom eseju Abhinava Surija o umjetnoj inteligenciji i rastu gospodarske nejednakosti.