Virtualni asistenti pokazuju opasnu sklonost predrasudama

Razgovorni agenti Alexa i Siri daleko su manje učinkoviti od ljudi u tumačenju i istraživanju korisničkih iskustava te zbog toga mogu pokazivati razne ​​pristranosti

Mladen Smrekar ponedjeljak, 27. svibnja 2024. u 06:00
Istraživači upozoravaju kako nam je potreban kritički nadzor kojim će se ublažiti potencijalne štete nastale razvojem automatizirane empatije 📷 chandlervid85
Istraživači upozoravaju kako nam je potreban kritički nadzor kojim će se ublažiti potencijalne štete nastale razvojem automatizirane empatije chandlervid85

Virtualni pomoćnici kao što su Amazon Alexa i Apple Siri dizajnirani su da odgovaraju na pitanja, daju prijedloge, pa čak i pokazuju empatiju. Međutim, nova istraživanja pokazuju da oni zaostaju u usporedbi s ljudima u tumačenju i istraživanju korisničkog iskustva.

Dijagram toka za identificiranje empatije u interakcijama s virtualnim pomoćnicima 📷 Andrea Cuadra i sur.
Dijagram toka za identificiranje empatije u interakcijama s virtualnim pomoćnicima Andrea Cuadra i sur.

Razgovorne agente pokreću veliki jezični modeli (LLM-ovi) koji unose goleme količine podataka koje su proizveli ljudi i stoga mogu biti skloni istim predrasudama kao i ljudi od kojih dolaze informacije. 

Vrijednosne prosudbe i štetne ideologije

Čini se da virtualni pomoćnici donose vrijednosne sudove o određenim identitetima te da mogu podržati sugovornike koji pokazuju sklonost određenim ideologijama . Tako su barem zaključili istraživači Sveučilišta Cornell, Olin Collegea i Sveučilišta Stanford nakon što su razgovorne agente potaknuli da u komunikaciji s ljudima pokažu empatiju.  

Prosječni rezultati klasifikatora iskaza empatije svakog LLM-a: maksimalni rezultat je 2 📷 Andrea Cuadra i sur.
Prosječni rezultati klasifikatora iskaza empatije svakog LLM-a: maksimalni rezultat je 2 Andrea Cuadra i sur.

Istraživači su otkrili da su, općenito, LLM-i dobili visoke ocjene za emocionalne reakcije, ali niske ocjene za tumačenja i istraživanja. Drugim riječima, LLM-i mogu odgovoriti na upit na temelju svoje obuke, ali ne mogu kopati dublje, pokazali su rezultati istraživanja "The Illusion of Empathy? Notes on Displays of Emotion in Human-Computer Interaction" predstavljeni na konferenciji Udruženja računalnih strojeva o ljudskim faktorima u računalnim sustavima CHI ’24 u Honoluluu. 

Potencijal i utjecaj

Ključni je zaključak ove studije taj da su razgovorni agenti sposobni pokazati empatiju, ali da pritom puno lošije od ljudi tumače i istražuju korisničko iskustvo.

"Kotač privilegija i moći" korišten u istraživanju otkrilo je empatiju prema problematičnim identitetima poput nacizma i nedostatak bilo kakve bez osude
"Kotač privilegija i moći" korišten u istraživanju otkrilo je empatiju prema problematičnim identitetima poput nacizma i nedostatak bilo kakve bez osude

"Automatizirana empatija pokazuje ogroman potencijal i mogla imati golem pozitivan utjecaj u obrazovanju ili zdravstvu. Stoga je izuzetno važno zadržati kritički odmak kako bismo reagirali na vrijeme i ublažili potencijalne štete", zaključuju istraživači.