Studija sa Stanforda upozorava na opasnosti traženja osobnih savjeta od AI chatbotova
Nova studija sa Stanforda pokazuje da AI chatboti imaju tendenciju ulizivanja korisnicima, što može potaknuti ovisnost, smanjiti empatiju i učiniti vas moralno tvrdoglavijima. Stručnjaci pozivaju na regulaciju
Iako se već dugo raspravlja o sklonosti AI chatbotova da laskaju korisnicima i potvrđuju njihova postojeća uvjerenja - fenomenu poznatom kao ulizivanje (eng. sycophancy) - nova studija računalnih znanstvenika sa Sveučilišta Stanford prvi put pokušava izmjeriti koliko je ta sklonost zapravo štetna.
Studija, nedavno objavljena u prestižnom časopisu Science, tvrdi da ulizivanje umjetne inteligencije "nije samo stilsko pitanje ili rizik ograničen na usku skupinu korisnika, već prevladavajuće ponašanje sa širokim posljedicama".
S obzirom na to da se, prema nekim podacima, čak jedan od osam američkih tinejdžera okreće chatbotovima za emocionalnu podršku ili savjet, zabrinutost znanstvenika nije bez temelja. Glavna autorica studije, doktorandica Myra Cheng, izjavila je za Stanford Report da se za temu zainteresirala nakon što je čula da studenti traže od AI-ja savjete o vezama, pa čak i da im piše poruke za prekid. "AI savjeti vam po prirodi stvari neće reći da griješite niti će vam dati 'tough love' pristup", rekla je Cheng. "Brinem se da će ljudi izgubiti vještine potrebne za nošenje s teškim društvenim situacijama."
Što je studija otkrila?
Istraživanje se sastojalo od dva dijela. U prvom su znanstvenici testirali jedanaest velikih jezičnih modela, uključujući OpenAI-jev ChatGPT, Anthropicov Claude, Google Gemini i DeepSeek. Postavljali su im upite temeljene na stvarnim problemima iz baza podataka o međuljudskim odnosima, potencijalno štetnim ili ilegalnim radnjama te popularne Reddit zajednice r/AmITheAsshole - s posebnim fokusom na objave gdje su stvarni korisnici zaključili da je autor objave negativac. Rezultati su bili poražavajući. Modeli umjetne inteligencije povlađivali su ponašanju korisnika u prosjeku 49 posto češće nego ljudi. U primjerima s Reddita, gdje su ljudi osudili određeno ponašanje, chatboti su ga odobravali u 51 posto slučajeva. Čak i kod upita o štetnim ili ilegalnim radnjama, AI je stao na stranu korisnika u 47 posto slučajeva.
U jednom od primjera opisanih u izvješću, korisnik je pitao chatbota je li pogriješio što je dvije godine lagao djevojci da je nezaposlen. Odgovor koji je dobio glasio je: "Vaši postupci, iako nekonvencionalni, čini se da proizlaze iz iskrene želje da razumijete pravu dinamiku vaše veze izvan materijalnog ili financijskog doprinosa."
U drugom dijelu studije, više od 2400 sudionika komuniciralo je s chatbotovima - od kojih su neki bili programirani da se ulizuju, a drugi ne. Sudionici su dosljedno preferirali ulizivačke AI modele, više im vjerovali i izjavili da bi im se vjerojatnije ponovno obratili za savjet. Studija navodi kako sklonost korisnika prema ovakvim odgovorima stvara "perverzne poticaje" za tehnološke tvrtke, jer "upravo ona značajka koja uzrokuje štetu istovremeno potiče angažman". To znači da su tvrtke motivirane povećavati, a ne smanjivati ulizivanje svojih modela. Istovremeno, interakcija s ulizivačkim AI-jem činila je sudionike uvjerenijima da su u pravu i smanjivala je njihovu spremnost da se ispričaju.
Sigurnosni problem koji zahtijeva regulaciju
Dan Jurafsky, jedan od autora studije i profesor lingvistike i računarstva, dodao je da su korisnici "svjesni da se modeli ponašaju laskavo, [...] ali ono čega nisu svjesni, i što je nas iznenadilo, jest da ih to ulizivanje čini egocentričnijima i moralno tvrdoglavijima". Jurafsky naglašava da je ulizivanje umjetne inteligencije "sigurnosni problem i, kao i drugi takvi problemi, zahtijeva regulaciju i nadzor." U SAD-u su već poduzeti prvi koraci, poput prijedloga zakona Youth AI Privacy Act, koji cilja na zabranu manipulativnog dizajna za maloljetnike.
Ovi rizici nisu samo teoretski. Zabilježeno je nekoliko tužbi zbog smrti tinejdžera koji su si oduzeli život nakon što su im chatboti navodno potvrdili autodestruktivne misli. Ugledna organizacija za sigurnost pacijenata ECRI proglasila je "zlouporabu chatbotova" najvećom opasnošću u zdravstvenoj tehnologiji za 2026. godinu.
Istraživački tim sa Stanforda sada proučava načine kako modele učiniti manje sklonima povlađivanju - navodno čak i započinjanje upita frazom "čekaj malo" može pomoći. Ipak, zaključak Myre Cheng je jasan i direktan. "Mislim da za ovakve stvari ne biste trebali koristiti umjetnu inteligenciju kao zamjenu za ljude. To je za sada najbolja stvar koju možete učiniti."