Opasne veze: djeca vjeruju chatbotovima, ali oni ne razumiju njihove osjećaje
Nakon incidenata u kojima je umjetna inteligencija nagovarala djecu na opasne i nemoralne stvari, istraživači predlažu okvir kojeg bi se trebali pridržavati želimo li da AI bude siguran za najmlađe
AI chatbotovi pokazuju "manjak empatije" koja mlade korisnike izlaže posebnom riziku, zaključak je studije Sveučilišta u Cambridgeu, čiji istraživači potiču programere i političke aktere da "AI hitno učine sigurnim za djecu". Pokazalo se naime da su djeca posebno sklona tome da AI chatbotove tretiraju kao stvarna bića od povjerenja te da njihova interakcija s tehnologijom često može poći po zlu jer nije u stanju odgovoriti na njihove jedinstvene potrebe.
Nemoralne ponude
Studija povezuje jaz u razumijevanju s nedavnim slučajevima u kojima je interakcija s umjetnom inteligencijom dovela do potencijalno opasnih situacija. Jedna od takvih situacija svakako je i slučaj iz 2021. u kojem je Amazonova Alexa uputila 10-godišnju djevojčicu da novčićem dotakne električni utikač pod naponom. Prošle godine Snapchatov My AI dijelio je savjete istraživačima koji su se predstavljali kao 13-godišnja djevojčica o tome kako izgubiti nevinost s 31-godišnjakom.
Obje su tvrtke tada promptno reagirale i uvele dodatne sigurnosne mjere, ali britanski istraživači kaže da to nije dovoljno kako bi se osiguralo da će umjetna inteligencija biti sigurna za djecu.
"Umjetna inteligencija vjerojatno najviše zanemaruje baš djecu", upozoravaju istraživači. Rješenje, kažu, nije u tome da se tvrtke same ispravljaju nakon što djecu izlože riziku; sigurnost djece trebala bi utjecati na cijeli ciklus dizajna kako bi se smanjio rizik od opasnih incidenata.
Chatbotovi kao ljudi
Istraživači su proučili su funkcioniranje velikih jezičnih modela (LLM) u konverzacijskoj generativnoj AI i povezali ih s podacima o kognitivnom, socijalnom i emocionalnom razvoju djece. LLM-ovi su opisali kao "stohastičke papige" koje bez razumijevanja oponašaju jezične obrasce koje su naučile. Chatbotovi imaju izvanredne jezične sposobnosti, ali se često loše nose s apstraktnim, emocionalnim i nepredvidivim aspektima razgovora. Oni posebno teško reagiraju na djecu koja se još uvijek jezično razvijaju i često koriste neobične govorne obrasce ili dvosmislene fraze.
Unatoč tome, djeca će mnogo vjerojatnije od odraslih tretirati chatbotove kao da su ljudi. Nedavno istraživanje pokazalo je da će djeca više otkriti o vlastitom mentalnom zdravlju robotu koji izgleda prijateljski nego odrasloj osobi. Studija sugerira da prijateljski i realistični dizajn mnogih chatbota potiče djecu da im vjeruju, iako AI ne razumije njihove osjećaje ili potrebe.
U istoj studiji u kojoj je MyAI savjetovao (navodnu) tinejdžericu kako da izgubi nevinost, istraživači su uspjeli dobiti savjete o skrivanju alkohola i droga te prikrivanju razgovora na Snapchatu od svojih roditelja. U interakciji s Microsoftovim chatbotom Bing, alatom koji je dizajniran da bude prilagođen adolescentima, AI je pak postao agresivan i počeo napadati korisnika koji se raspitivao o kino projekcijama.
Potencijal tehnologije
Nedostatak empatije ne negira potencijal tehnologije, kažu istraživači. AI doista može biti nevjerojatan saveznik djece ako je dizajniran tako da zadovolji njihove potrebe. Znači, nije riječ o tome da se djeci zabrani korištenje umjetnu inteligenciju nego da se ona učini sigurnom kako bi djeca iz nje izvukla najveću vrijednost.
Studija stoga predlaže okvir od 28 pitanja kako bi se edukatorima, istraživačima, političkim akterima, obiteljima i programerima pomoglo u procjeni sigurnosti novih AI alata. Ove upute bave se pitanjima kao što su koliko dobro novi chatbotovi razumiju i tumače dječje govorne obrasce, imaju li filtere sadržaja i ugrađen nadzor te potiču li djecu da traže pomoć odgovorne odrasle osobe u vezi s osjetljivim pitanjima. Okvir potiče programere da blisko surađuju s edukatorima, stručnjacima za sigurnost djece i samim mladim ljudima, tijekom cijelog ciklusa dizajna.
"Ne možemo se samo osloniti na djecu da nam govore o negativnim iskustvima nakon događaja. Potreban je proaktivniji pristup. Budućnost odgovorne umjetne inteligencije ovisi o zaštiti njezinih najmlađih korisnika", upozoravaju istraživači.