AI i online slike nude iskrivljen pogled na zaposlene žene

ChatGPT generira životopise koji žene predstavljaju kao manje iskusne i mlađe, dok stariji muškarci dobivaju više ocjene, čak i kad se temelje na istim početnim informacijama

Mladen Smrekar petak, 24. listopada 2025. u 09:10
Alati koje poslodavci sve češće koriste pri odabiru kandidata mogu nesvjesno diskriminirati starije žene i mlađe osobe 📷 Freepik
Alati koje poslodavci sve češće koriste pri odabiru kandidata mogu nesvjesno diskriminirati starije žene i mlađe osobe Freepik

Suvremeni sustavi umjetne inteligencije održavaju i dodatno pojačavaju društvene stereotipe prema starijim ženama, utvrdio je multidisciplinarni tim znanstvenika sa Stanforda. Analiza više od 1,4 milijuna internetskih slika i videozapisa s Googlea, Wikipedije, IMDb-a, Flickra i YouTubea te devet velikih jezičnih modela uključujući ChatGPT, jasno je pokazala da su žene u internetskim prikazima sustavno predstavljene kao mlađe nego muškarci, osobito u visoko plaćenim i prestižnim zanimanjima.​

Žene su prikazane kao znatno mlađe od muškaraca na više od 1,3 milijuna slika i u tisućama videozapisa na 7 online izvora 📷 Douglas Guilbeault, Solène Delecourt & Bhargav Srinivasa Desikan
Žene su prikazane kao znatno mlađe od muškaraca na više od 1,3 milijuna slika i u tisućama videozapisa na 7 online izvora Douglas Guilbeault, Solène Delecourt & Bhargav Srinivasa Desikan

U drugoj fazi istraživači su od ChatGPT-a zatražili da generira više od 34.000 životopisa za 54 zanimanja koristeći tipična muška i ženska imena. Model je ženama pripisivao kraće karijere i manje iskustva, dok su muškarci, osobito stariji, dobivali više ocjene čak i kad su ulazni podaci bili identični. To, upozoravaju autori, znači da alati koje poslodavci sve češće koriste pri odabiru kandidata mogu nesvjesno diskriminirati starije žene i mlađe osobe.​

Uzaludno pročišćavanje filterima

Takvi obrasci ne pojavljuju slučajno jer generativni modeli u obrađene tekstove "ugrađuju" duboko ukorijenjene društvene predodžbe o spolu, dobi i radnim ulogama. "To što se pristranosti javljaju čak i u jeziku, gdje nema slike, pokazuje koliko su utkane u način na koji interpretiramo ljude u društvu“, ističu istraživači u radu koji objavljuje časopis Nature.​

Pristranosti se, upozoravaju istraživači, javljaju i u jeziku, tamo gdje nema slike 📷 Perplexity Pro
Pristranosti se, upozoravaju istraživači, javljaju i u jeziku, tamo gdje nema slike Perplexity Pro

Pokušaji tehnoloških tvrtki da generativne modele "očiste“ dodavanjem filtara pokazuju se nedostatnima. Takvi pristupi, smatraju istraživači. ne rješavaju temeljne uzroke pristranosti koji potječu iz golemih količina ljudskih podataka ugrađenih u algoritme. Dok se problemi ne počnu rješavati na dubljoj razini, znanstvenici pozivaju na oprez: korisnici bi trebali biti svjesni da umjetna inteligencija, unatoč dojmu objektivnosti, i dalje odražava najukorijenjenije predrasude.