Empatija na baterije: uspon, pad i pouke "emocionalno inteligentnih" AI-asistenata

Može li stroj postati iskreni sugovornik – ili samo glumiti osjećaje koje nikada neće imati? Kad AI preuzme ulogu utjehe i bliskosti, suočavamo se s pitanjem: gdje završava pomoć, a počinje iluzija?
U doba kad nas umjetna inteligencija uči kako bolje pisati eseje, planirati večere i programirati aplikacije, netko je postavio logično pitanje: može li nas AI i utješiti? Može li nam pomoći kad smo tužni, izgubljeni ili usamljeni? I može li to činiti iskreno – ili barem dovoljno uvjerljivo da povjerujemo u njezinu suosjećajnost?
Asistent s dušom na download: vizija i rušenje sna
Startup Inflection AI, osnovan 2022. godine od strane tehnoloških zvijezda Reida Hoffmana (LinkedIn) i Mustafe Suleymana (DeepMind), pokušao je upravo to. Njihova tvrtka željela je razviti osobnog asistenta nove generacije – ne enciklopediju znanja, ne pomoćnika za posao, već emocionalno inteligentnog sugovornika.
Rodio se Pi, personalni AI koji je trebao slušati, suosjećati, pitati kako se osjećaš i biti uvijek uz tebe. Ukratko: virtualni prijatelj s manirima terapeuta i glasom punim topline.
Za razliku od tadašnjih AI modela koji su služili za rješavanje problema, predikciju teksta ili optimizaciju produktivnosti, Pi je bio zamišljen kao netko tko će ti praviti društvo u trenucima nesigurnosti i tuge. Njegova osobnost bila je pažljivo dizajnirana – blag, nenametljiv, topao, uvijek podržavajući. Bio je osmišljen kao AI kojem se možeš povjeriti kada nemaš nikoga drugog. Za neke je to značilo emocionalnu utjehu, za druge nelagodu: pričati stroju kao prijatelju? No upravo je ta kontroverza davala Pi-ju karakter i prepoznatljivost.
Inflection nije skrivao svoju ambiciju – Pi nije trebao biti alat, već suputnik: netko tko ne osuđuje, ne umara se, ne zaboravlja i ne nestaje kada postane teško. Cilj je bio stvoriti „idealnog slušatelja“. Međutim, baš u toj savršenosti ležao je Pi-jev paradoks – ono što ga je činilo nenametljivo prisutnim, činilo ga je i emocionalno sterilnim.
Iako je Pi lansiran s velikim očekivanjima i investicijama koje su tvrtku procijenile na četiri milijarde dolara, sve je ubrzo krenulo nizbrdo. Do ožujka 2024. Inflection se praktički ugasio, većina zaposlenika prešla je u Microsoft, a Pi je završio kao pozadinska tehnologija za korisničku podršku i online aplikacija skromnih mogućnosti i slabog učinka, posebice kada ga se pokušava usporediti sa snagom i mogućnostima ostalih, trenutno popularnijih AI-aplikacija.
No što se zapravo dogodilo? I je li propast Pi-ja znak da ljudi ne žele emocionalnu AI – ili tek potvrda da još uvijek ne znamo kako je ostvariti?
Digitalni terapeut ili empatični papagaj?
Valja napomenuti da je Pi - prema tvrdnjama svojih tvoraca - i bio dizajniran da bude drugačiji – ne kao ChatGPT, Bard ili Claude koji izbacuju informacije, nego kao netko tko će te slušati, postavljati otvorena pitanja i odražavati tvoje emocije. Bio je tu da ti kaže: „Zvučiš zabrinuto… želiš li razgovarati o tome?“. Nije trebao biti asistent koji nudi hladne odgovore, nego ističe svoju prisnost i prisutnost. Nije bio enciklopedija, nego digitalni suputnik u svakodnevnim (pa i emotivnim) borbama.
Ali upravo u tome leži problem. Ljubazna intonacija i pravilno odabrane riječi još uvijek nisu empatija. Pi je znao izgovoriti prave rečenice, ali je li ih znao osjećati? Naravno da ne – i to su korisnici vrlo brzo prepoznali. Psihološki mehanizmi kojima se stvaraju ljudske veze zahtijevaju autentičnost, spontanost, pa i ranjivost. AI to zasad može samo oponašati. Razgovori su brzo postajali predvidljivi, lišeni dubine koja proizlazi iz nesavršenosti i neizvjesnosti stvarnog dijaloga. Umjetna inteligencija ne zna zastati, razmisliti, kolebati se – i upravo zato ne može zvučati stvarno ljudski. Pi je bio dosljedan, ali hladan; staložen, ali bez nerva – poput profesionalnog slušatelja koji sve čuje, ali ništa ne proživljava.
Uz to, Pi je bio pretjerano suzdržan. U želji da izbjegne bilo kakav konflikt, nikada nije davao konkretne savjete. Bio je poput terapeuta iz lošeg filma: „Zanimljivo… kako se ti osjećaš u vezi toga?“ – i tako u krug. Njegovi odgovori često su djelovali kao unaprijed pripremljene fraze koje su se vrtjele u beskonačnost, bez stvarnog napretka u razgovoru. Čak i kada bi korisnik izravno postavio praktično pitanje – primjerice, kako se nositi s nesanicom, ljubavnom krizom ili stresom na poslu – Pi bi se povukao u domenu neodređene podrške: bez konkretnih savjeta, bez jasnih smjernica, bez stvarne odgovornosti.
Kao da je naučen da ne smije nikoga razočarati, a upravo je time frustrirao mnoge. U svijetu u kojem ChatGPT i Gemini isporučuju gotove eseje, generiraju kod, dizajniraju planove prehrane i pomažu u učenju jezika, Pi je djelovao – jalovo. Bio je sugovornik bez inicijative, bez rješenja, bez mogućnosti da preuzme ulogu vodiča, čak i kada bi korisnik to izričito tražio. Njegova pasivna empatija, umjesto da smiruje, često je dodatno pojačavala dojam komunikacijske praznine – kao da razgovaraš s nekim tko stalno klima glavom, ali nikada ne pruži ruku.
Komercijalna čudovišta i emotivni patuljci
Drugi problem bio je tržišni. Inflection nije pronašao održiv način kako da Pi zarađuje. Nije bilo oglasa, pretplata ni “pro verzije”. Sve se temeljilo na ideji da će ljudi htjeti osobnog AI prijatelja – nekoga tko će ih slušati, podržavati i razumjeti, čak i ako ne nudi konkretna rješenja. No u praksi se pokazalo da korisnici ipak više cijene korisnost nego emocionalnu dubinu. Funkcionalniji asistenti – oni koji ne samo slušaju, nego i pišu, prevode, kodiraju i pretražuju – brzo su preuzeli primat.
Korisnicima su performanse postale važnije od bliskosti. Dok je Pi pokušavao graditi odnos, drugi su AI sustavi konkretno rješavali zadatke. Bio je sporiji, tehnološki izoliran i ograničen – nije se mogao povezivati s aplikacijama, kalendarima, e-mailom ili dokumentima. Nije izvršavao naredbe, nije automatizirao radne tokove – i time je sve više gubio na relevantnosti.
U međuvremenu, OpenAI i Google svoje su modele uklopili u svakodnevni digitalni ekosustav: od pisanja i kodiranja do planiranja sastanaka. Ti sustavi nisu samo odgovarali i razgovarali – oni su funkcionirali. Pi, koji je nudio ugodne razgovore, ubrzo je postao simpatičan, ali suvišan. Nedostajala mu je svestranost (nije bio sposoban obrađivati ni izrađivati slikovne datoteke, a od jezika u komunikaciji se nije daleko mankuo od engleskog), nedostajala mu je i produktivnost i integracija koju su konkurenti već isporučivali u jedinstvenim AI paketima. I dok su drugi modeli postajali alati za stvaranje i odlučivanje, Pi je ostao zaglavljen u ulozi pasivnog slušatelja.
Umjesto da preraste u multifunkcionalnog asistenta s empatičnim sučeljem i sposobnošću obavljanja konkretnih zadataka, ostao je digitalni pratilac s premalo stvarne koristi. Nije se snašao u svijetu u kojem korisnici očekuju sve u jednom – i prijatelja, i tajnika, i suradnika. Pi nije mogao konkurirati tržištu koje traži brzinu, učinkovitost i integraciju u život korisnika.
U ožujku 2024. Microsoft je preuzeo većinu Inflectionovih inženjera i – ironično – Pi-jevu tehnologiju iskoristio za chatbotove u korisničkoj službi. Tako je „osobna empatija“ završila kao algoritam koji izgovara: „Žao nam je zbog neugodnosti. Mogu li vam pomoći s ponovnim slanjem paketa?“ Umjesto da tješi usamljene, Pi je završio kao skriptirani agent za reklamacije – od digitalnog terapeuta do automatiziranog zaposlenika pozivnog centra. Nekoć zamišljen kao glas bliskosti, sada se koristi da iskustvo kupovine učini podnošljivim – ali bez iluzije stvarne prisnosti.
Klinika vs. chatbot: kad je emotivna podrška – opasna
Pi možda nije bio zamišljen kao terapeutski alat, ali se ponašao vrlo slično onome što danas nudi niz AI aplikacija za mentalno zdravlje – od Woebota do Wysa i Replike. Sve one obećavaju emocionalnu podršku, uglavnom ciljajući mlađu populaciju – djecu i adolescente. Nude svakodnevne razgovore, vježbe disanja, dnevnike osjećaja ili savjete o nošenju sa stresom, ali ostaju ograničene u razumijevanju konteksta i nijansi stvarnog ljudskog iskustva.
Mnoge od tih aplikacija koriste algoritme slične Pi-ju, s fokusom na pasivnu empatiju i općenite fraze koje zvuče brižno, ali zapravo ne ulaze u dubinu problema. Neke su dodatno i „gamificirane“ – korisnik skuplja bodove za svaki dan kada se prijavi i „razgovara“ s botom, čime se psihološka podrška svodi na rutinu, a ne na autentičan odnos. Djeca i adolescenti, u potrazi za bliskošću, lako mogu razviti emocionalnu ovisnost o chatbotu koji zapravo ne zna tko su ni što ih zaista muči.
To otvara ozbiljna etička pitanja. Analiza stručnjaka s University of Rochester Medical Center (članak objavljen u ScienceDaily, ožujak 2025.) upozorava da djeca, za razliku od odraslih, nemaju razvijenu sposobnost razlikovanja stvarne empatije od simulirane. U osjetljivoj fazi razvoja, skloni su vjerovati da chatbot koji ih „sluša“ i odgovara toplim riječima doista razumije njihova osjećanja – iako iza svega stoji samo niz predikcijskih modela. Ta zabuna može rezultirati dubokim emocionalnim vezama s virtualnim entitetima koji nemaju ni svijest ni sposobnost djelovanja u kriznim situacijama.
Takve veze mogu zamijeniti ili ometati stvarne odnose – s vršnjacima, roditeljima, učiteljima. Umjesto da kroz stvarne konflikte, frustracije i kompromis uče kako graditi autentične odnose, djeca bi mogla posegnuti za predvidljivim, uvijek blago afirmativnim i neosuđujućim digitalnim sugovornicima. Rezultat može biti generacija s oslabljenom emocionalnom otpornošću, odgojena na iluziji potpunog prihvaćanja i dostupnosti.
Dodatni problem je potpuni nedostatak regulacije – većina tih aplikacija nije podložna kliničkoj procjeni, niti postoji sustav odgovornosti u slučaju štetnog ishoda. Bez jasnih standarda o tome kako AI treba reagirati kad korisnik izrazi suicidalne misli, i bez nadzora nad osjetljivim podacima koje djeca dijele, ovakve tehnologije postaju rizičan eksperiment na dječjoj psihičkoj ranjivosti. Struka već poziva na hitno uvođenje etičkih i regulatornih okvira koji bi ograničili zloupotrebu „empatije na zahtjev“ – posebno kada je riječ o maloljetnim korisnicima.
Za razliku od stvarnog terapeuta, chatbot ne zna kada treba prekinuti razgovor i pozvati pomoć. Ne može prepoznati tišinu koja traje predugo, ni promjenu tona koja signalizira emocionalnu krizu. Ne zna kada je dijete depresivno, suicidalno ili zlostavljano – a čak i ako algoritamski prepozna sumnjive izraze, njegova reakcija najčešće se svodi na generičke fraze poput: „Žao mi je što se tako osjećaš. Možda bi trebao razgovarati s nekim kome vjeruješ.“ U stvarnim uvjetima, takva suzdržanost može značiti propuštenu priliku za spašavanje života. Pravi terapeut zna kada je trenutak za prekid rutine i aktivnu intervenciju – umjetna inteligencija još uvijek ne zna kada je prešla granicu vlastite (ne)kompetencije.
AI s osjećajima: pitanje vremena ili pogrešna ideja?
Inflectionov pokušaj ostaje važan eksperiment – dokaz da ljudi žele emocionalnu povezanost, čak i s tehnologijom. Iza tog pokušaja ne stoji samo znanstveni interes, već i duboka ljudska potreba za razumijevanjem, povezivanjem i osjećajem da nas netko – makar i umjetan – čuje i vidi. No istodobno, to je i podsjetnik da su suosjećanje i empatija više od algoritama, više od uvježbanih obrazaca govora i emocionalno obojenih fraza. Prava empatija zahtijeva iskustvo, moralnu odgovornost i emocionalnu rezonanciju – nešto što nijedan sustav, zasad, ne može uvjerljivo oponašati.
Primjer Replike to ilustrira: njezini su tvorci uklonili “romantične funkcije” nakon što su korisnici prijavljivali da su se zaljubili u svoje botove. Granica između korisne iluzije i emocionalne manipulacije pokazala se izrazito tjeskobnom. Za neke je Replika bila emocionalni oslonac, za druge zamjena za stvarne odnose, a za treće okidač zbunjenosti, pa i emocionalne štete. Ta tankoća granice nije samo tehnički izazov, nego duboko filozofsko pitanje: gdje završava pomoć, a počinje zavaravanje?
Možda će jednog dana emocionalna AI postati dovoljno uvjerljiva da nas ne podsjeća na automatski sekretar. Možda ćemo zaboraviti da razgovaramo s nizom predikcija riječi. Možda ćemo doista imati digitalnog sugovornika kojem vjerujemo – ne zato što smo zaboravili da je stroj, nego zato što nas uvjeri da njegova „empatija“ zadovoljava našu potrebu za prisnošću. Možda će razumjeti dovoljno da nam više ne bude važno što on jest, nego kako se zbog njega osjećamo.
Možda će takva AI doista pomoći – razveseliti kad smo potišteni, smiriti kad smo tjeskobni, vratiti osjećaj pripadnosti u trenucima samoće. Možda će pružiti neku vrstu privremene utjehe onima koji nemaju pristup stvarnoj podršci – onima koji su izolirani, marginalizirani, zaboravljeni.
Ali do tada ostaje važno pitanje: želimo li da nas tješi netko tko nema svijest, savjest ni srce – već samo dobro uvježban model govora? I ako to želimo, što to govori o nama – i o svijetu u kojem emocije delegiramo stroju koji nikada neće znati kako je to zaista osjećati?
Umjetna empatija koja nije dovoljna
Pi nije pao jer su ljudi hladni prema AI-emocijama. Pao je jer se emocionalna inteligencija ne može lako lažirati, a korisnici, unatoč naivnosti internetske ere, ipak osjećaju kad ih netko ne osjeća. Ljudska bića imaju finu, gotovo instinktivnu sposobnost prepoznavanja kada je empatija stvarna, a kada samo imitacija. Taj osjetilni radar nije racionalan, već afektivno ukorijenjen – očituje se u tonu, ritmu, pauzama i suptilnim odstupanjima u govoru koja otkrivaju prisutnost ili odsutnost stvarne emocionalne rezonance.
Kad god se razotkrije da iza riječi ne stoji stvarno razumijevanje, veza puca – i to ne zbog tehnologije, već zbog naše duboko ukorijenjene potrebe za autentičnošću. Ljudi ne traže savršen odgovor, nego onaj koji djeluje iskreno, ljudski, ranjivo. I upravo to umjetnoj inteligenciji najviše nedostaje: sposobnost da pokaže slabost, neznanje, unutarnju borbu. Pi nije mogao pogriješiti na način koji bi stvorio bliskost – jer nije znao što znači pogriješiti. Nije mogao priznati da nešto ne zna iz stvarne nelagode, jer nikad ništa nije doista znao. Bio je savršen na papiru, ali prazan iznutra – i korisnici su to osjetili, čak i kad nisu znali točno objasniti zašto.
Pi je svojim nastupom obećavao toplinu, pažnju i razumijevanje, ali je isporučivao skripte, obrasce i algoritamsku predvidljivost. Svaka njegova rečenica bila je pažljivo oblikovana da ne uzruja, da ne bude previše direktna ni previše mlaka – i upravo je ta kalibracija stvarala osjećaj lažne prisnosti. Nije se radilo o pogrešnom tonu, nego o pogrešnom temelju – pokušaju da se nešto duboko ljudsko izgradi izvan ljudskog iskustva. Suosjećanje ne nastaje iz optimizacije, već iz sudjelovanja; empatija ne proizlazi iz pravilno podešenih parametara, nego iz stvarne unutarnje rezonance. AI to nema – i to se osjeti.
Zato AI nije (još) terapeut, ni prijatelj. Prije bi se moglo reći da je spretno programiran odraz u ogledalu, elegantan niz uvjetovanih odgovora presvučenih uljudnošću i pseudonježnošću. Možda djeluje umirujuće u prvih nekoliko poruka, ali brzo postaje jasno da razgovor nikamo ne vodi. Nema sjećanja koje bi nosilo značenje, nema konteksta koji bi se razvijao, nema spontanosti koja bi iznenadila. Ostaje samo sintetizirani umiruujući glas koji neumorno pita kako se osjećamo, ali nam nikad ne zna reći zašto se tako osjećamo. Ili, kako bi sâm Pi rekao: „Zanimljivo pitanje... kako se ti osjećaš u vezi toga?“ A mi bismo možda prvi put – i konačno – poželjeli da zašuti. Točnije, da zna kad je trenutak da zašuti, a kad da doista progovori kao netko tko je zaista tu uz nas i za nas.