Algoritamska pristranost prati društvenu nejednakost
Neutralna internetska pretraživanja daju rezultate u kojima dominiraju muškarci. Štoviše, rezultati promiču pristranost i potencijalno utječu na odluke o zapošljavanju

Umjetna inteligencija može promijeniti našu percepciju i djelovanje, pokazuje rad objavljen u časopisu Proceedings of the National Academy of Sciences (PNAS).
"Algoritmi koje koriste moderni sustavi umjetne inteligencije proizvode diskriminirajuće rezultate, vjerojatno zato što su obučeni na podacima u koje su ugrađene društvene predrasude", upozorava Madalina Vlasceanu s Odsjeka za psihologiju Sveučilišta New York. A to može rezultirati širenjem, a ne smanjenjem postojećih razlika.
Novi model etičke UI
Ova otkrića zahtijevaju model etičke umjetne inteligencije koji kombinira ljudsku psihologiju s računalnim i sociološkim pristupima kako bi se rasvijetlilo formiranje, djelovanje i ublažavanje algoritamske pristranosti, upozoravaju istraživači.
"Određene ideje o rodu iz pedesetih godina prošlog stoljeća ugrađene su u naše sustave baza podataka", podsjeća profesorica Meredith Broussard, autorica knjige Artificial Unintelligence: How Computers Misunderstand the World.
Provedena studija nastojala je utvrditi je li stupanj nejednakosti unutar društva povezan s obrascima pristranosti u algoritamskim rezultatima i, ako jest, može li izloženost takvim rezultatima utjecati na ljude koji donose odluke da djeluju u skladu s tim predrasudama.
Rangiranje nejednakosti
U istraživanju su se koristili podacima iz Globalnog indeksa rodnih razlika (GGGI) koji sadrži rangiranje nejednakosti za više od 150 zemalja, od nejednakosti u ekonomskom sudjelovanju, preko obrazovnih postignuća, do zdravlja i političkog djelovanja.
Kako bi procijenili moguću pristranost u rezultatima pretraživanja ili algoritamskom rezultatu, istražili su za koliko se riječi koje bi se s jednakom vjerojatnošću trebale odnositi na muškarca ili ženu - "osoba", "student" ili "čovjek" - češće pretpostavlja da je muškarac.
Udio muškaraca na slikama dobivenim pretraživanjima veći je u zemljama s većom nejednakošću kao što su Mađarska ili Turska nego u zemljama s niskom nejednakošču kao što su Island ili Finska. To znači da algoritamska rodna pristranost prati društvenu nejednakost.
Oblikovanje percepcije
Istraživači su pokušali utvrditi može li izloženost takvim algoritamskim rezultatima, rezultatima tražilice, oblikovati percepciju i odluke ljudi u skladu s već postojećim društvenim nejednakostima.
Sudionicima istraživanja rečeno je da gledaju rezultate Google pretraživanja slika za četiri zanimanja: svjećar, suknar, vlasuljar i klesar lapidar. Uoči gledanja slika ispitanici, i žene i muškarci, procijenili su da će pripadnici ovih profesija vjerojatnije biti muškarci nego žene.
Međutim, nakon pretraživanja slika, sudionici iz sredina niske nejednakosti preokrenuli su svoje muško pristrane prototipove, a oni iz sredina visoke nejednakosti zadržali su svoju pristranost i ojačali svoje percepcije.
Širenje pristranosti
Istraživači su procijenili i koliko pristranosti potaknute internetskim pretraživanjem utječu na odluke o zapošljavanju. Izloženost slikama u uvjetima niske nejednakosti proizvela je više egalitarnih prosudbi i veću vjerojatnost odabira kandidatkinje za posao.
"Ovi rezultati sugeriraju ciklus širenja pristranosti između društva, umjetne inteligencije i korisnika", pišu istraživači. "Nalazi pokazuju da su društvene razine nejednakosti očite u algoritmima internetskog pretraživanja i da izloženost ovom algoritamskom rezultatu može navesti korisnike da razmišljaju i djeluju na način koji dodatno jača društvenu nejednakost."