Umjetna inteligencija neće uskoro riješiti sve probleme u biznisu i životu

Autor: Bernard Ivezić , 18. listopad 2018. u 22:00

Zahvaljujući dosad prepoznatim nedostacima umjetne inteligencije možemo reći da će teme poput kvalitete podataka, tehničkih specifikacija sustava umjetne inteligencije kao i etike programera, ili pak etike koja se programira u takve sustave, postati ključne u idućem razdoblju.

Umjetna inteligencija neće riješiti sve probleme u biznisu i životu te sve je više primjera koji na to ukazuju. MD Anderson, dio Sveučilišta u Teksasu i jedan od svjetski najboljih centara za istraživanja raka, još je lani zamrznuo suradnju s IBM-ovim Watsonom na zajedničkom projektu "istrebljenja raka".

Pokazalo se da ni 62 milijuna dolara nisu dovoljna da bi Watson polučio uspjeh u ovom specifičnom području. Imao je premalo kvalitetnih podataka, ljudi su bili preoptimistični što će im tehnologija donijeti itd. Nije to jedini primjer. Ove godine je u ožujku Uberov samovozeći automobil pogazio pješakinju u SAD-u. Mogao je to učiniti i samovozeći automobil nekog drugog brenda.  Poanta je da samovozeći automobili uče na greškama, odnosno da je "gaženje ljudi" ili "stradavanje vozača" dio procesa tog učenja. Sa svakom nesrećom ti su automobili bolji, jer kao u slučaju aviona, proizvođač automatski poboljša sva prometala iste serije.

Kada chatbot podivlja
Prije tjedan dana procurila je informacija da je Amazon lani naprasno odustao od korištenja umjetne inteligencije koju je razvio za potrebe zapošljavanja.  Obično se kao razlog potenciranja umjetne inteligencije u ljudskim potencijalima navodi da je kod standardnog procesa evaluacije životopisa 50 posto ili više šanse da će iz idućeg kruga selekcije biti isključene žene i pripadnici manjina.

No, Amazon je otkrio da je svoj algoritam istrenirao na lošim podacima, odnosno "izložio ga neprimjerenim utjecajima" i kao rezultat, unatoč naporima svojih inženjera, dobio automat za diskriminaciju pri zapošljavanju. I nije jedini. U SAD-u je prije dvije godine ProRepublica razotkrila da softver koji bi trebao zaposlenicima u pravosuđu pomoći u procjeni rizika u kriminalnim procesima, zapravo diskriminira crnce, jer statistički su više osuđivani. I obrnuto, o bijelcima je, čak i kad su imali pozamašnu kriminalnu povijest, umjetna inteligencija procjenjivala da je rizik od ponavljanja kriminalnog djela manji.

Kako izgleda kad se umjetna inteligencija puni podacima koji su krcati predrasudama ili, kako ga u struci zovu "smećem", vidi se i iz primjera AI chatbota Tay, koji je Microsoft lansirao prije dvije godine.  U svega 24 sata Tay se od umjetne inteligencije koja je optimistično slavila život i širila ljubav pretvorila u čangrizavu mašinu punu mržnje prema ljudima, sposobnu ciljano raditi bullying, a sve zato što je upijala sadržaje s Twittera. No to nije činila potpuno sama.  Korisnici Twittera brzo su shvatili da je mogu nagovoriti da kaže što žele pa su je, među inim, i "namjerno kvarili".

Zvučnici snimaju vlasnike
Nadalje, uređaji koji koriste umjetnu inteligenciju ipak su samo uređaji, i kao svi strojevi mogu se i pokvariti. Prije godinu dana u Njemačkoj je izbio skandal, jer su se Google Home Mini zvučnici, koji koriste umjetnu inteligenciju u obliku virtualnog asistenta, bez znanja korisnika, palili i do tisuću puta na dan te snimali sve što se radi i govori u njihovom okruženju. Znači, prisluškivali su domove Nijemaca i zvučne zapise slali u Google.

I Amazonova je Alexa u Njemačkoj partijala, i to doslovno. U Hamburgu je u studenom prošle godine policija upala u jedan stan uvjerena da je u njemu tulum, ali je potom otkrila da u praznom stanu zabavu sama sebi kroji Amazonova virtualna asistentica, odnosno umjetna inteligencija Alexa kroz Amazonov pametni zvučnik Echo. Bez da je za to dobila naredbu, puštala si je jako glasnu glazbu. 

Moralne dvojbe AI-ja
Ali uz umjetnu inteligenciju koja se kao i svaki stroj može pokvariti zbog tehničke greške, uz umjetnu inteligenciju koja se hranjena lošim podacima može pretvoriti u nešto što diskriminira i radi loše stvari, ključna je i etika programera umjetne inteligencije. Oni, naime, donose "strateške odgojne odluke" koje usmjeravaju kako će se umjetna inteligencija kroz daljnje vlastito učenje razvijati.  To su situacije koje i sami znamo kao moralne dvojbe.

Primjerice, pregaziti grupu pješaka ili ubiti vozača skretanjem s ceste? Dopustiti umjetnoj inteligenciji da upravlja oružjem sama ili joj ograničiti autonomiju odlučivanja?  Dopustiti ili ne umjetnoj inteligenciji da automatski odlučuje o istinitosti informacija i na temelju kojih pretpostavki? Baš zahvaljujući dosad prepoznatim nedostacima umjetne inteligencije možemo reći da se ta tehnologija danas isprofilirala i da je djelom postala zrela, da ju se mnogo kritičnije promatra i da će teme poput kvalitete podataka, tehničkih specifikacija sustava umjetne inteligencije kao i etike programera, ili pak etike koja se programira u takve sustave, postati ključne u idućem razdoblju.

Komentirajte prvi

New Report

Close