AI agentima su dovoljna dva sata da repliciraju vašu osobnost
Dvosatni razgovor s modelom umjetne inteligencije sve je što je potrebno da se napravi točna replika nečije osobnosti, zaključili su istraživači Googlea i Stanforda nakon provedenog eksperimenta
Istraživači Googlea i Sveučilišta Stanford stvorili su AI replike 1052 osobe na temelju dvosatnih intervjua sa svakim sudionikom, otkriva studija objavljena u bazi podataka za preprint arXiv. Ovi razgovori korišteni su za treniranje generativnog AI modela osmišljenog da oponaša ljudsko ponašanje. Kako bi se procijenila točnost AI replika, svaki je sudionik završio dva kruga testova osobnosti, društvenih anketa i logičkih igara, a postupak je ponovljen dva tjedna kasnije. Podvrgnute istim testovima, AI replike odgovarale su na način na koji bi to činili i ljudi s 85 % točnosti.
Simulacija ljudskih stavova i ponašanja
Istraživači tvrde da AI modeli koji oponašaju ljudsko ponašanje mogu biti korisni u različitim scenarijima istraživanja, od procjene učinkovitosti javnog zdravstva, preko lansiranja proizvoda, do modeliranja reakcija na glavne društvene događaje, dakle projekte koji bi inače mogli biti preskupi, zahtjevni ili etički upitni za proučavanje na ljudskim sudionicima.
"Općenamjenska simulacija ljudskih stavova i ponašanja, gdje se svaka simulirana osoba može uključiti u niz društvenih, političkih ili informacijskih konteksta, mogla bi omogućiti istraživačima da laboratorijski testiraju širok skup intervencija i teorija", tvrde istraživači u svom radu. Simulacije bi, kažu, mogle pomoći u pilotiranju novih javnih zahvata, u razvoju teorija o uzročnim i kontekstualnim interakcijama, a mogle bi povećati i naše razumijevanje načina na koji institucije i mreže utječu na ljude.
Dubinski intervjui
Kako bi stvorili agente simulacije, istraživači su proveli dubinske intervjue koji su pokrivali životne priče sudionika, njihove vrijednosti i mišljenja o društvenim pitanjima. To je umjetnoj inteligenciji omogućilo da uhvati nijanse koje tipične ankete ili demografski podaci mogu propustiti, objašnjavaju istraživači. Što je najvažnije, struktura ovih intervjua dala je istraživačima slobodu da istaknu ono što smatraju najvažnijim za njih osobno.
Istraživači su ove intervjue iskoristili za generiranje personaliziranih AI modela koji bi mogli predvidjeti kako će pojedinci odgovoriti na anketna pitanja, društvene eksperimente i igre ponašanja. To je uključivalo odgovore na Opću društvenu anketu, alat za mjerenje društvenih stavova i ponašanja, psihološki test Big Five Inventory (BFI) i ekonomske igre kao što su Dictator Game i Trust Game.
Mogućnosti zlouporabe
Iako su AI agenti u mnogočemu odražavali ljudske kolege u mnogim područjima, njihova točnost varirala je ovisno o zadacima. Posebno su se dobro pokazali u repliciranju odgovora na ankete o ličnosti i određivanju društvenih stavova, ali su bili manje precizni u predviđanju ponašanja u interaktivnim igrama koje uključuju donošenje ekonomskih odluka. To ne čudi jer, komentiraju istraživači, umjetna inteligencija obično ima problema sa zadacima koji uključuju društvenu dinamiku i kontekstualne nijanse.
Istraživači pritom upozoravaju na mogućnost zlouporabe. AI i deepfake tehnologije već se obilato koriste za razne prevare, lažno predstavljanje, zlostavljanje i manipuliranje drugim ljudima na Internetu. Na sličan način mogli bi se, kažu, iskoristiti i agenti simulacije.