Zakaj moramo ohraniti kritično distanco in spodbujati kritično mišljenje
Zadnje desetletje se je v družbi spodbujalo (skoraj neomajno) zaupanje v umetno inteligenco in/ali algoritme, ki obvladujejo virtualni svet oziroma splet (iskanje po spletu, spletne strani posameznikov, podjetij, družbena omrežja, spletno nakupovanje, strojni prevodi, virtualni asistenti in množično število različnih ostalih aplikacij …) ter z njimi povezane naše elektronske naprave (računalniki, tablice, mobilni telefoni, pametne ure, pametni gospodinjski aparati …). A ne le splet, umetno inteligenco že desetletja bolj ali manj uspešno uporabljamo na področjih, kot so v zdravstvu, prometu, industriji, kmetijstvu, javni upravi in storitvah ter drugje. To zaupanje se je spodbujalo tudi prek raznih nanizank, kot so Humans (UK, 2015–2018), Äkta människor (SWE, 2012–2014), Altered Carbon (2018–2020), Black Mirror (UK, 2011–), čeprav slednji kažeta tudi bolj mračne vidike takšnega sveta.
Toda kaj je umetna inteligenca (UI)? Definicija umetne inteligence je zmožnost stroja, da izkazuje človeške lastnosti, kot so mišljenje, učenje, načrtovanje in kreativnost. Umetna inteligenca omogoča tehničnim sistemom, da zaznavajo okolje, obdelajo, kar zaznajo, in rešijo problem, pri čemer ravnajo v skladu z določenim ciljem. Umetna inteligenca je programska oprema: virtualni asistenti, programska oprema za analizo slik, iskalniki, sistemi za prepoznavanje govora in obrazov. »Utelešena« umetna inteligenca pa so roboti, avtonomna vozila (samovozeči avtomobili), droni, internet stvari itd. Sistemi, ki delujejo na podlagi umetne inteligence, lahko na podlagi analize učinkov svojih predhodnih dejanj do določene mere samostojno prilagajajo svoje vedenje.
In kaj je algoritem? Uporaba in definicija algoritma se je na zanimiv način spremenila od vzpona interneta – in predvsem iskalnikov – sredi devetdesetih let. A v osnovi je algoritem majhna, preprosta stvar: pravilo, ki se uporablja za avtomatizacijo obdelave podatkov. Z njim povemo, kako opravimo določen postopek pri reševanju problema/-ov. Točna definicija je odvisna od tega, komu je namenjen. Ali drugače povedano, algoritem je jasen, nedvoumen in mehaničen postopek za reševanje računskega problema, pri čemer končno zaporedje ukazov, če jim sledimo v določenem vrstnem redu, pripelje do rešitve. Tako računalnik sprejema podatke, ki so predhodno pripravljeni, ali pa jih zbere sam s senzorji, denimo kamero, jih obdela in se odzove v skladu z navodili in podatki.
A nedavne raziskave so razkrile, da je ena od posledic načrtnega marketinškega vlaganja v moč umetne inteligence in algoritmov, da jim ljudje zaupajo, četudi se ti motijo in delujejo pristransko. Tako je Dr. Michał Klichowski iz univerze Adam Mickiewicz iz Poznańa na Poljskem 18. junija 2020 v reviji Frontiers in Psychology objavil članek »People Copy the Actions of Artificial Intelligence«, v katerem je predstavil svojo raziskavo o LI robotu (Lažnem inteligentnem robotu), ki mu je kar 85 odstotkov respondentov/-k bolj zaupalo kot lastni presoji. Raziskava je bila razdeljena na dva dela. V prvem delu raziskave, ki je bila sestavljena iz spletne raziskave, je sodelovalo 1500 ljudi (večinoma ženske). Raziskava se je nanašala na odločanje, pri čemer so nekatere udeležence/-ke raziskave pred tem obvestili, da je nekatere odločitve sprejela tudi umetna inteligenca (UI, ki pa je dala napačne odgovore). V drugem delu raziskave so 55 oseb, večinoma mlade ženske, povabili v laboratorij, kjer so lahko videli odločitve robota in hkrati morali oceniti njegovo odločitev. Glavna naloga LI je bila identificirati terorista na podlagi njegovih nevsakdanjih in specifičnih objav na Facebooku. LI je kot terorista označil osebo s povsem običajnim vedenjem in standardnimi FB objavami, kar je nakazovalo na njegovo napačno odločitev. Kljub temu je večina respondentov/-k presodila, da ima umetna inteligenca prav in so se odločili za isto osebo kakor UI.
Michał Klichowski na to odgovarja, da se ljudje v kritičnih situacijah ponavadi ne zanašajo na svojo presojo in nekritično posnemajo vedenje drugih. Tak konformizem je motiviran s potrebo po pravilnem in ustreznem ukrepanju ter občutkom, da so sodbe o situaciji, ki so jih zgradili drugi, bolj ustrezne od naših. Bolj ko so razmere negotove ali krizne (obstaja večji občutek ogroženosti), večji je učinek posnemanja drugih, četudi drugi nimajo prav – v tem primeru so ljudje posnemali umetno inteligenco ne glede na to, da je postulirala nekaj absurdnega. Klichowski je še dodal, da se je umetna inteligenca »Med poskusi … obnašala nerazumno in natančno tako, kot je bilo načrtovano. Tako se je samo pretvarjala, da je inteligentna. Poleg tega je bilo njeno ravnanje nedvoumno neumno«. Od tod tudi vprašanje, ali bi lahko bilo vedenje, mnenje ali odločitev umetne inteligence, ki je postala del našega vsakdana, primeren vir informacij za ljudi, kako ravnati v kriznih situacijah? Klichowski odgovarja, da »njegova raziskave kaže, da sodobne družbe potrebujejo učenje o kritičnem mišljenju, kar zadeva inteligentne stroje in algoritme, in prav tako kažejo, kakšno moč imajo lahko lažne novice«.
Tudi nekateri ostali raziskovalci so naredili raziskavo o zaupanju v umetno inteligenco. Raziskavo, ki so jo aprila 2019 opravili raziskovalci Oksanen, Savela, Latikka in Koivula iz Fakultet za sociologijo iz Turku in Tampere na Finskem, so decembra 2020 objavili v članku »Trust Toward Robots and Artificial Intelligence« v reviji Frontiers of Psychology. Oksanen in sodelavci so v raziskavo vključili 1077 respondentov-/k iz ZDA (od tega je bilo 50,60 odstotkov žensk, več kot 66 odstotkov respondentov/-k, starejših od 25 let, je imelo višjo izobrazbo, povprečna starost je bila 37 let). Rezultate zaupanja respondentov/-k bodisi v umetno inteligenco bodisi v ljudi so raziskovali prek igre zaupanja. Slednja je eksperimentalna metoda merjenja zaupanja kot naložbenih odločitev, v kateri se zaupanje in vzajemnost ocenjujeta v razmerju ekonomske menjave. Prejšnje študije so pokazale, da motivacija ljudi za vrnitev zaupanja ni določena le z maksimizacijo osebnih ciljev, temveč tudi z upoštevanjem posledic tako zase kot za druge. V igri zaupanja posledice zaupanja konkretno določa količina denarja, ki so se mu udeleženci pripravljeni odreči. Rezultati raziskave pa so razkrili, da ljudje bolj zaupajo umetni inteligenci kot ljudem. Natančneje, v prvem delu so raziskovalci/-ke respondentom/-kam (tj. igralcem/-kam), ki so jih razdelili v šest skupin, dali na voljo 1000 USD, ki so jih lahko v celoti obdržali zase ali pa delili z nasprotnikom. V primeru, da so se odločili denar deliti, so prav tako dobili navodilo, da se bo podarjena vsota, ki jo dobi drugi igralec, potrojila (torej v primeru, da so se odločili podariti 500 USD, nasprotnik dobi 1500 USD). Nato so k tej informaciji dodali še, da se lahko drugi igralec svobodni odloči, da mu/-ji bo del podarjenega denarja vrnil. Nazadnje so se morali respondenti/-ke odločiti še, koliko oz. če bodo denar delili. Igra zaupanja je vključevala tudi možnost manipulacije hipotetičnih nasprotnikov, saj so raziskovalci vplivali na odločitve respondentov/-k z dodajanjem besed »robot« ali »umetna inteligenca«, in sicer so zapisali, da je bodisi »ime nasprotnika robot Michael« (n = 192) bodisi »ime nasprotnika je robot jdrx894« (n = 172) ali »ime nasprotnika je umetna inteligenca Michael« (n = 185) ali pa »ime nasprotnika je umetna inteligenca jdrx894« (n = 171). Testno okolje so raziskovalci primerjali z dvema kontrolnima skupinama nasprotnikov, ki so jih opisali le z imeni »Michael« (n = 171) ali vzdevkom »jdrx894« (n = 186). Rezultati so pokazali, da so respondenti/-ke v povprečju največ denarja namenili nasprotniku z imenom »robot jdrx894«, najmanj pa nasprotniku z imenom »Michael«.
V drugem delu raziskave so se raziskovalci osredotočili na individualne razlike zaupanja v robote in umetno inteligenco, in sicer glede na izobrazbo s področja tehnike in naravoslovja, izpostavljenost spletnim asistentom in robotom ter glede na osebnostne lastnosti, kakršne merimo z osebnostnimi testi (t. i. model Velikih pet). Predvideli so, da bo stopnja zaupanja v robote in umetno inteligenco višja pri (mlajših) posameznikih/-icah z naravoslovno-tehnično izobrazbo, tistih z več izkušnjami glede omenjenih, kakor tudi pri zaposlenih z višjimi dohodki ter nazadnje pri ekstravertiranih, odprtih in sprejemljivih tipih osebnosti. Predvidevanje se je izkazalo za pravilno.
Seveda pa se zastavlja temeljno vprašanje, zakaj so ljudje bolj zaupali umetni inteligenci kot ljudem? In zakaj so bolj tehnično-naravoslovno izobraženi ljudje ter ljudje z večjo uporabo spletnih robotov tem bolj zaupali kot manj izobraženi, starejši in ljudje, ki niso imeli toliko opravka s spletnimi in ostalimi vrstami robotov in UI? Najprej je tukaj na delu gotovo prepričanje, da so roboti in UI manj zmotljivi kot ljudje. Prav tako prepričanje, da so roboti in umetna inteligenca manj skorumpirani, pohlepni in podkupljivi kot ljudje, torej bolj pošteni in z manj predsodki, saj niso ljudje, torej jim ne pritičejo človeške lastnosti. Enako je tudi glede algoritmov, saj so korporacije, kot sta Facebook in Google, prodale in zagovarjale svoje algoritme na premisi objektivnosti, zmožnosti pretehtati pogoje na osnovi matematične brezinteresnosti in odsotnosti čustvene dvoumnosti in nejasnosti. Vse predpostavke držijo, a s pomembno opombo: robote, umetno inteligenco in algoritme so ustvarili ljudje, natančneje beli moški v anglosaksonskem svetu ali daljnem vzhodu, zato se lahko tudi roboti, umetna inteligenca ali algoritmi motijo in izražajo predsodke, če njihovi ustvarjalci tako želijo, kakor je dokazal Klichowski, ali pa če o njih niso ozaveščeni.
Omenjeno se še zlasti izkazuje z algoritmi, ki jih je prav tako ustvaril človek. Tako je denimo nedavno predvajani dokumentarec Persona: The Dark Truth Behind Personality Tests (USA, 2021) pokazal, da veliko podjetij v ZDA zaupa spletnim osebnostnim testom, ki so diskriminatorni s tem, ko preferirajo predvsem določen tip osebnosti, ostale pa ‘demonizirajo’. Dokumentarec predstavi predvsem Myers-Briggs indikator tipov (MBTI), najbolj znani osebnostni test na svetu. MBTI test sta oblikovali Isabel Myers in njena mati Katherine Cook-Briggs, sam model pa temelji na delu Psihološki tipi Carla Gustava Junga. Myers in Briggs sta indikator tipov razvili med drugo svetovno vojno, pri tem pa sta izhajali iz hipoteze, da lahko razumevanje osebnih preferenc pomaga tistim posameznikom, ki se prvič zaposlujejo. MBTI temelji na predpostavki, da razlike nastajajo zaradi dveh procesov, percepcije (sprejemanja informacij) in ocenjevanja (presojanja informacij in odločevanja). To je osnova za matriko, ki ljudi kategorizira v 16 tipov na podlagi štirih binarnih razlik: tako so ljudje bodisi ekstravertirani ali introvertirani, čutni ali intuitivni, čustveni ali razmišljujoči in nazadnje bodisi ocenjujoči ali sprejemajoči. Od 60 let prejšnjega stoletja dalje je v ZDA MBTI test opravilo okoli 50 milijonov ljudi, panoga osebnostnega testiranja pa vsako leto zasluži 2 milijardi dolarjev in se z vsakim letom poveča za 15 odstotkov. Danes več kot 2 milijona ljudi letno opravi MBTI spletni test, vključno z 60 do 70 odstotki ameriških perspektivnih delavcev, čeprav je znano, da MBTI test ni utemeljen na klinični psihologiji (Jungove teorije nimajo podlage ne v nadzorovanem testiranju ne v podatkih), njegovi rezultati slabo odražajo učinkovitost zaposlenih in najpomembnejše, test odraža napačne ideje o rasi, spolu, razredu in hendikepu, zaradi česar je test pristranski in odraža predsodke, enako s tem pa tudi algoritmi, na katerih temeljijo spletni testi. Ali kakor pove ena od sogovork v dokumentarcu, Lydia XZ Brown, zagovornica pravic hendikepiranih: »Osebnostni testi so v veliki meri ustvarjeni z namenom oblikovanja rasnih, spolnih, albeističnih, razrednih razlik … To se zgodi, ko imate test, ki temelji na normah visokošolsko izobraženega belega moškega brez kakršnega koli hendikepa … Na tak način MBTI in ostali osebnostni testi postanejo nevarno orodje …«. V dokumentarcu tako predstavijo tudi podjetje, ki je ustvarilo algoritem za MBTI spletne teste največjih ameriških podjetij in eden od snovalcev algoritma prizna, da ta temelji na visoko izobraženem belem moškem.
Pristranskosti izdelovalcev algoritmov se kažejo na različnih ravneh, ne le, ko gre za omenjene spletne osebnostne teste, ampak tudi ko gre za monetiziranje na primer spletnih vsebin na Youtubu, Facebooku itd. Tako je septembra 2019 skupina LGBTQ vlogerjev na Youtube kanalu Nerd City začela preiskovati Youtubov sistem za zaslužek kot odgovor na naraščajoče razočaranje skupnosti zaradi načina, kako spletno mesto samodejno (na nejasen in neupravičen način) demonetizira videoposnetke – kar pomeni, da ti videoposnetki ne bodo imeli oglasov, ustvarjalci pa ne morejo imeti koristi od Youtubovega sistema prihodkov od oglasov. Po preizkusu več kot 15.000 besed je skupina v pisnem poročilu in videoposnetku, objavljenem na omenjenem kanalu, ugotovila, da je Youtube samodejno označeval videoposnetke, ki so v naslove uvrstili določene ključne besede – vključno s širokim spektrom kvir prijaznega besedišča, kot sta »gej« in »lezbijka«. V razširjeni študiji, izvedeni samo o kvir besedišču, so raziskovalci ugotovili, da je bilo 33 odstotkov videoposnetkov, ki so jih preizkusili s kvir vsebino v naslovih, samodejno demonetiziranih. Raziskovalci so v naslovih preizkusili vrsto monetiziranih videoposnetkov z besediščem LGBTQ in nato ugotovili, da so bili, potem ko jih je avtonomni robot samodejno demonetiziral, ponovno monetizirani šele, ko so te besede zamenjali z besedama »prijatelj« in »vesel«.
Na pristranskost in celo spodbujanje predsodkov prek algoritmov je opozorila tudi Cathy O’Neil v knjigi Sredstva za matematično uničevanje (Weapons of Math Destruction) (2016), nekdanja čudežna matematična genialka, ki je zapustila Wall Street, da bi učila in pisala odličen blog o matematiki. O’Neil je pokazala, da algoritmi, ne da bi izkoreninili človeške pristranskosti, te lahko povečajo in utrdijo, saj programsko opremo pišejo premožni belci in Azijci. Slednje se po njenem mnenju neizogibno odraža v algoritmih, npr. v Googlovem »razpršilniku rasističnega mila«. Prav tako pravi, da tem algoritmom lahko rečemo neumni, v smislu, da opravljajo svoje delo v skladu s parametri, ki jih določijo ljudje, kakovost rezultata pa je odvisna od umskih sposobnosti in veščin, s katerimi so bili programirani. O’Neil k temu doda, da so na drugem koncu spektra bolj ali manj oddaljene sanje o človeku podobni umetni splošni inteligenci ali USI. Pravilno inteligenten stroj bi lahko podvomil v kakovost lastnih izračunov na podlagi nečesa, kot je naša intuicija (ki bi jo lahko definirali kot širok nabor znanja in izkušenj). Dejstvo je, da so računalniki pri nekaterih specializiranih nalogah veliko boljši od nas, toda dan, ko bodo tekmovali in nas premagali v naših splošnih sposobnostih, je verjetno zelo daleč, če sploh kdaj, meni O’Neil. Ljudje morda nismo najboljši v številnih stvareh, vendar smo drugi najboljši v celem nizu impresivnih stvari. Skratka, O’Neill svari tako pred preveliko očaranostjo nad ponudbo spletnih tehničnih velikanov kakor tudi nad »algoritmizacijo« borze.
Z rečenim seveda ne želim zanikati vseh izjemnih in nedvomno koristnih pridobitev, ki nam jih omogočajo umetna inteligenca, robotika in algoritmi na številnih področjih. Na prikazanih primerih želim le opozoriti, da je včasih potrebna tudi previdnost in predvsem izobraženost, kakor imajo to urejeno denimo na Finskem, kjer je učenje programiranja v osnovni šoli obvezno, zato da ljudje lahko zavzamejo pravo mero kritičnega mišljenja in znajo pravilno oceniti delovanje umetne inteligence, robotov in algoritmov (internet, iskalniki, spletni asistenti ipd.), ki nam vedno bolj krojijo naš vsakdan. V bistvu računalniški programi niso nič drugega kot snopi kratkih in preprostih pravil oz. algoritmov – recepti za obdelavo podatkov. Na mikro ravni nič ne more biti preprostejše. Če se zdi, da računalniki in ostali elektronski pripomočki izvajajo magijo, je to zato, ker so hitri in precizni, a niso inteligentni in prav na to moramo biti pozorni, ko ocenjujemo njihovo moč in prenašamo verodostojnost naših odločitev na stroje.