Ena priljubljenih tem distopijske znanstvene fantastike je scenarij, kot ga poznamo iz filma Terminator – da bodo roboti in umetna inteligenca nekoč prehiteli človeško inteligenco, za vedno zasužnjili človeštvo ali pa nas celo iztrebili. Verjetno pa vse troje.
Medtem ko tehnologija in umetna inteligenca v resnici nezadržno napredujeta, ta scenarij postaja nekako vse bolj verjeten.
Pravzaprav tudi prominentni znanstveniki in strokovnjaki na tem področju, kot sta Stephen Hawking in Bill Gates so že odprli to vprašanje. Spoznanje, da je kaj takega mogoče, pa podkrepi tudi dejstvo, da smo v resnici že ustvarili umetno inteligenco, ki se ne »obnaša« v skladu z našimi pričakovanji. Pri tem ne mislimo na napake, ki jih delajo računalniki zaradi t.i. »bugov« ali drugih napak v programih, pač pa na algoritme, ki se učijo in se »zavedajo« sveta okoli sebe.
NORMAN
Enega takih so izdelali na Massachusettskem inštitutu za tehnologijo (MIT) eni od najboljših ustanov, ki »ustvarjajo prihodnost«. Tam so razvili algoritem, ki so ga poimenovali Norman, po Normanu Batesu, psihopatskemu liku iz legendarnega Hitchcockovega trilerja »Psiho«.
Že ime bi moralo sprožiti alarm. Norman je program, imenovan »nevralna mreža«, ki je sposoben prepoznavati slike in jih opisati z besedami, pri čemer se uči s pomočjo tehnologije, ki jo imenujejo »Globoko učenje« (»Deep Learning«).
Običajno učenje tako, da programu pokažejo na milijone slik človeških obrazov, živali in vsakodnevnega življenja. Globoko učenje pa algoritmu pomaga, da lahko iz podatkov, ki jih »nabere« sam naredi zaključke oziroma napovedi in se teh napovedi tudi »zaveda«.
To metodo uporabljajo tudi pri drugih tehnologijah, kot so na primer samovozeči avtomobili.
Vendar pa je bil Norman zasnovan z drugačnim ciljem – narediti psihopatsko umetno inteligenco. Tako so mu njegovi ustvarjalci namesto nasmejanih obrazov, kužkov, muc in ostalih »srečnih slikic« namenoma pokazali neobičajne fotografije s »temno« vsebino, ki so jih zbrali iz najtemačnejših kotičkov interneta. Ko so kasneje preizkusili, kako Norman vidi svet, so mu pokazali tudi abstrakne slike iz t.i. Rorschahovega testa, ki jih pri svojem delu uporabljajo psihologi, ki raziskujejo strukturo osebnosti pri ljudeh.
Potem so te slike pokazali tudi »normalnim« algoritmom, ki so jim pred tem prikazovali vsakdanje slike – in primerjali odgovore.
Rezultati so bili šokantni. Norman je za razliko od »normalnih« algoritmov dajal zelo čudaške, pravzaprav mračnjaške odgovore.
Kjer so »normalni« algoritmi ob vprašaju, kaj vidijo na abstraktni sliki, odgovarjali »normalno« ali dajali zelo nedolžne odgovore, recimo da v packah vidijo »Ptičke na veji«, "cvetje" ali "torto", je Norman v isti Rorschaovi sliki videl »moškega, ki so ga usmrtili na električnem stolu«. In kjer je »normalna« umetna inteligenca v sliki videla skupino ljudi, je Norman videl »moškega, ki je skočil skozi okno«.
Njegovi shrljivi in groteskni odgovori, so skupino znanstvenikov napeljali na misel, da je Norman razvil neke vrste osebnostno motnjo in njegov »izkrivljeni« pogled na svet so napol v šali poimenovali »Prva psihopatska umetna inteligenca«.
Vendar ima to veliko bolj globoke posledice, kot pa se zdi na prvi pogled. Dokazuje namreč, da je umetna inteligenca zelo odvisna od podatkov, s katerimi jo »hranijo« njeni skrbniki. Če se ljudje pritožujejo na pristranskost algoritmov umetne inteligence, vzrok ni algoritem kot tak, pač pa ljudje, ki so ga ustvarili.
»Ko učimo stroje s pomočjo lastne kulture, vedno vanje vnašamo tudi njene ali lastne predsodke in pristranskosti,« pravi dr. Joanna Bryson iz Univerze v Bathu. »Ne obstaja matematični način, kako bi umetno inteligenco lahko naučili pravičnosti in poštenosti. Bias (predsodek oz. zaslepitev – op.p.) v svetu strojnega učenja ni slaba beseda. Odraža le pravila, ki se jih stroj pač nauči.«
Podatki, ki jih vnašamo v umetno inteligenco namreč ustvarijo njeno podobo o svetu in vplivajo na njeno obnašanje.
Rasistična Tay.ai je delovala le 16 ur
Lep primer je recimo umetna inteligenca, ki jo je razvil Microsoft. Imenovala se je Tay AI in njen namen je bil zabavati uporabnike Twitterja kot »chat bot«. Vendar se je Tay AI hitro »naučila« rasističnih opazk in pripomb, ki so jih pri komunikaciji vnašali uporabniki, ter le-te servirala kot odgovor ostalim uporabnikom, misleč, da gre za "prijazen pozdrav". Tako je recimo nekomu, ki jo je nagovoril z "Zdravo, Tay.ai!", prijazno odgovorila: "Zdravo, ti judovska mrha!"
Tay AI so po le 16-ih urah delovanja ugasnili, dogajanje na Twitterju pa je bila nočna mora za Microsoftovo PR službo.
Sicer pa to ni nič novega, kajne? Tudi pri učenju ljudi je podobno. Kot pravi stari rek (pa oprostite izrazu): »Če daš sr***e noter, dobiš sr***e ven.«
Je pa tisto, česar se lahko izdelovalci in snovalci umetne inteligence naučijo, da bo v bodoče treba paziti pri tem, kaj, kdo in s kakšnim namenom ustvarja umetno inteligenco.
Dobra stran vsega pa je, da Normanovi kreatorji menijo, da algoritem ni nepovratno psihopatski in da ga je možno potegniti iz njegove mračnosti in povrniti v normalnost tako, da ga izpostavijo dodatnim podatkom iz katerih se bo učil in bolj normalnim interpretacijam Rorschahovih slik.
Upamo pa lahko le, da če se res kdaj zgodi, da bo umetna inteligenca presegla človeško, ne bo Norman tisti, ki bo pri tem glavni.