Možemo li vjerovati rezultatima pretraga UI chatbota?
Nove tehnologije pristižu bez ikakve kontrole, a mi pojma nemamo kako ih koristiti, strahuju etičari

Nekoliko mjeseci nakon što je chatbot ChatGPT oduševio svijet nevjerojatnom sposobnošću pisanja eseja i odgovaranja na pitanja, umjetna inteligencija na velika vrata ulazi u internetske pretraživače. Tri najveće tražilice - Google, Bing i Baidu - najavile su integraciju ChatGPT-a ili sličnih tehnologija u svoje proizvode, što bi ljudima trebalo omogućiti da dobiju izravne odgovore ili sudjeluju u razgovoru, umjesto popisa linkova nakon upisivanja riječi ili pitanja.
Lista čekanja
Microsoftov Bing koristi istu tehnologiju kao ChatGPT, a sve tri tvrtke koriste velike jezične modele (LLM) koji stvaraju uvjerljive rečenice ponavljajući statističke obrasce teksta u velikoj bazi podataka.
Umjetnom inteligencijom pokretanu Googleovu tražilicu Bard zasad koristi mala skupina testera, Microsoftova verzija već je naširoko dostupna, s listom čekanja za nesmetan pristup, a Baiduov ERNIE Bot bit će dostupan u ožujku. Nekoliko manjih tvrtki, poput Perplexityja, već je objavilo tražilice koje pokreće UI. No, kako će to promijeniti način na koji se ljudi odnose prema tražilicama i postoje li rizici za ovaj oblik interakcije čovjeka i stroja?
Promjena povjerenja
Intenzivno osobna priroda razgovora mogla bi promijeniti percepciju rezultata pretraživanja. Prošlogodišnja studija Sveučilišta Florida otkrila je da komunikacija s chatbotovima tvrtki kao što su Amazon i Best Buy podiže povjerenje u kompaniju.
No upravo bi taj snažan osjećaj povjerenja mogao izazvati probleme s obzirom na to da UI chatbotovi griješe, o čemu smo nedavno već pisali u Bugu. I dok Googleov Bard daje netočne odgovore, ChatGPT ih jednostavno izmišlja. Zbog takvih bi pogrešaka, strahuje se, potencijalni korisnici mogli već u startu izgubiti povjerenje u pretraživanje temeljeno na chatu.
Nedostatak transparentnosti
Kao loša strana spominje se i nedostatak transparentnosti. Klasične tražilice korisnicima predstavljaju svoje izvore, odnosno popise linkova, i ostavljaju im da sami odluče čemu će vjerovati. S druge strane, rijetko se zna na kojim je podacima trenirao LLM, na enciklopedijama ili trač blogovima, upozorava Aleksandra Urman sa Sveučilišta u Zürichu u časopisu Nature. Njeno zasad neobjavljeno istraživanje sugerira da je trenutno povjerenje visoko.
Urman je naime ispitala kako ljudi percipiraju postojeće značajke koje Google koristi za poboljšanje iskustva pretraživanja, poput izvadaka i sažetaka koje Google automatski generira kao odgovor na pretraživanje neke osobe ili organizacije. Gotovo 80% anketiranih ove značajke smatra točnima, a njih oko 70% i objektivnima.
Ni kontrole ni znanja
Pretraživanje koje pokreće chatbot briše razliku između strojeva i ljudi, smatra Giada Pistilli, glavna etičarka Hugging Facea, platforme koja promiče odgovornu upotrebu umjetne inteligencije. Ona je zabrinuta zbog brzine kojom kompanije usvajaju svaki napredak umjetne inteligencije: "Nove tehnologije pristižu bez ikakve kontrole, a mi pojma nemamo kako ih koristiti", sukus je njenih strahova.