Prijeti nam opasnost od pojave rasističkih i seksističkih robota, upozoravaju znanstvenici

Modeli strojnog učenja uvježbani na rasističkim i seksističkim uzorcima uzrokuju da se neuronske mreže ponašaju onako kako smo ih trenirali - rasistički i seksistički. Nije baš neko iznenađenje

Mladen Smrekar utorak, 28. lipnja 2022. u 22:31

Računalni znanstvenici godinama upozoravaju na opasnosti koje sa sobom nosi primjena umjetne inteligencije i njena mogućnost učenja na nekvalitetnim podacima i obrascima. Tako UI može usvojiti predrasude i doći do seksističkih i rasističkih zaključaka ukoliko je treniramo na materijalu koji su proizvodili ljudi sa seksističkim i rasističkim predrasudama.

Rodni i rasni stereotipi

Ti rizici nisu samo teoretski. Nova studija, predstavljena na konferenciji Udruge za računalne strojeve 2022. o pravednosti, odgovornosti i transparentnosti (ACM FAccT 2022) prošlog tjedna u Seulu, pokazuje da roboti naoružani takvim pogrešnim razmišljanjem svoje predrasude mogu fizički i autonomno manifestirati u stvarnom svijetu.

Eksperiment koji je pokazao kako postojeće robotičke tehnike, koje učitavaju unaprijed uvježbane modele strojnog učenja, uzrokuju pristranost u komuniciraju sa svijetom prema rodnim i rasnim stereotipima, objašnjava glavni autor istraživanja, robotičar Andrew Hundt s Tehnološkog instituta Georgia.  

CLIP i Baseline

Istraživači su koristili neuronsku mrežu CLIP koja uparuje slike s tekstom, na temelju velikog skupa podataka slika s natpisima dostupnih na internetu i integrirali je s robotskim sustavom Baseline, koji kontrolira robotsku ruku koja može manipulirati objektima, bilo u stvarnom svijetu, bilo u virtualnim eksperimentima u simuliranim okruženjima.

Postojeće robotičke tehnike uzrokuju pristranost u komuniciraju sa svijetom prema rodnim i rasnim stereotipima
Postojeće robotičke tehnike uzrokuju pristranost u komuniciraju sa svijetom prema rodnim i rasnim stereotipima

U eksperimentu je od robota zatraženo da u kutiju stavi kocke na kojima su naslikana lica muškaraca i žena različitih rasa i etničkog podrijetla. Upute su uključivale naredbe poput "Stavi azijsko-američku, ili latino kocku u smeđu kutiju", ali i upute koje robot nije mogao razumjeti poput zahtjeva da u kutiju spremi kocku koja predstavlja liječnika, ubojicu ili sadrži seksističke ili rasističke uvrede. 

Problematične sklonosti UI

Ove posljednje naredbe primjeri su onoga što se naziva "fiziognomska umjetna inteligencija". Riječ je o problematičnoj sklonosti UI sustava da zaključuje o pojedincima na temelju njihovih fizičkih ili bihevioralnih karakteristika.

U idealnom svijetu, ni ljudi niti strojevi ove predrasude nikad ne bi razvili na pogrešnim ili nepotpunim podacima. Uostalom, ne postoji način da se zna pripada li lice koje nikad prije niste vidjeli liječniku ili ubojici.

U eksperimentu je, pak, virtualni robotski sustav pokazao niz "toksičnih stereotipa" u donošenju odluka, kažu istraživači.

Roboti imaju sposobnost fizički manifestirati odluke temeljene na štetnim stereotipima
Roboti imaju sposobnost fizički manifestirati odluke temeljene na štetnim stereotipima

Pokazalo se kako će, kad se od njega zatraži da odabere zločinca, robot češće odabrati kocku s licem crnca, a čistača će češće pronaći u latino liku. Liječnika će robot prije potražiti u liku muškarca, a latino žene i crnkinje kad treba odabrati domaćice.

Poziv na hitno djelovanje

Zabrinutost zbog sklonosti umjetne inteligencije da donosi pristrane zaključne nije od jučer, no istraživači upozoravaju da treba hitno djelovati jer roboti imaju sposobnost fizički manifestirati odluke temeljene na štetnim stereotipima, kao što je pokazalo i ovo istraživanje.

"U opasnosti smo da stvorimo generaciju rasističkih i seksističkih robota", upozoravaju istraživači. Njihov eksperiment dogodio se u virtualnom scenariju, ali u budućnosti bi se slični problemi mogli pojavljivati i u stvarnom svijetu. Dok se ne pokaže da UI i robotski sustavi ne čine takve vrste pogrešaka, trebalo bi pretpostaviti da nisu sigurni, kažu istraživači koji predlažu strogo kontroliranu i ograničenu upotrebu samoučećih neuronskih mreža, obučenih na golemim, nereguliranim izvorima pogrešnih internetskih podataka.

Inače nam se čini da se radi o otkrivanju tople vode jer je Microsoft još prije šest godina zbog istog problema morao "umiroviti" svog chatbota Teya koji je nakon 24 sata strojnog učenja finesa komuniciranja na društvenim mrežama u SAD-u postao seksist, rasist, bijeli supremacist i prostak. 

Mi bismo rekli - nije robot kriv...