"Chatbotovi" se isplate, ali izazivaju bijes kupaca

Tržište "chatbota" vrijedi milijarde i ova UI tehnologija sve više zamjenjuje ljudske zaposlenike. No, kad iznevjere kupce to može biti vrlo loše za poslovanje

Mladen Smrekar srijeda, 19. listopada 2022. u 06:00

Očekuje se da će chatbotovi potaknuti 95 posto online interakcija s korisničkim servisom do 2025., ali istraživanje Tehnološkog sveučilišta u Queenslandu (QUT) pokazalo je da neuspjeh u ispunjavanju očekivanja kupaca dovodi do frustracije među korisnicima, izaziva ljutnju i smanjuje vjerojatnost kupnje.

Chatboti i agresija

Rad izvanredne profesorice Paule Dootson, objavljen u časopisu Journal of Retailing and Consumer Services, pokazuje kako je manja vjerojatnost da će korisnici postati agresivni zbog neuspjeha usluge chatbota ako su svjesni da je ljudska intervencija dostupna kada je potrebna.

Sposobnost razumijevanja prirodnog jezika i uključivanja u razgovore omogućuje chatbotovima pružanje korisničkih usluga, ali i poboljšanje korisničkog iskustva
Sposobnost razumijevanja prirodnog jezika i uključivanja u razgovore omogućuje chatbotovima pružanje korisničkih usluga, ali i poboljšanje korisničkog iskustva

Trenutačno tržište chatbota procijenjeno je na 17,7 milijardi američkih dolara i predviđa se da će do 2026. dosegnuti ogromnih 102,29 milijardi. Većina ljudi će iskusiti interakciju s barem jednim chatbotom jer se već sada naširoko koriste u gotovo svakoj industriji. 

Primjer Lega

“Lego je koristio chatbota po imenu Ralph kako bi pomogao korisnicima da se kreću kroz njegov portfelj proizvoda i kupe savršen dar", kaže profesorica Dootson. "Međutim, unatoč ekonomskim prednostima za tvrtke koje koriste chatbotove, oni često ne ispunjavaju očekivanja kupaca i narušavaju iskustvo korisničke usluge."

Izvanredna profesorica Paula Dootson, autorica rada "Chatbots and service failure: When does it lead to customer aggression"
Izvanredna profesorica Paula Dootson, autorica rada "Chatbots and service failure: When does it lead to customer aggression"

U Japanu je tako još 2019. hotelski virtualni pomoćni robot otpušten zbog opetovanih kvarova; jedan od njih bio je taj da je hrkanje gostiju brkao s glasovnim naredbama za buđenje.

Izvori neuspjeha

Osim problema s prepoznavanjem glasa, skripte na koje se chatbotovi oslanjaju da bi odgovorili klijentima mogu postati problematične kada chatbot krivo protumači zahtjev. Korisnici se tada mogu osjećati frustrirano i ljuto, postati neskloni upotrebi chatbota u budućnosti, manja je vjerojatnost da će kupovati ili se čak u potpunosti prebaciti na korištenje drugog pružatelja usluga, upozorava Dootson.

Australska studija razmatra kako tehnologija umjetne inteligencije mijenja način na koji se usluge isporučuju i otkriva brojne moguće izvore neuspjeha. Pokazalo se tako da klijente posebno ljuti kad tek u slučaju kvara usluge chatbota saznaju da im je dostupan i ljudski zaposlenik. 

"Kasno otkrivanje opcije za interakciju s ljudskim zaposlenikom povećava vjerojatnost agresije korisnika", upozorava  profesorica Dootson. Potpuno neočekivano, istraživanje je pokazalo i kako će, zakaže li usluga chatbota, emocije i agresiju potaknuti i kad se klijentima ranije ponudi interakcija s ljudskim zaposlenikom.

Ljudska intervencija

"Čini se kako rano otkrivanje mogućnosti interakcije s ljudskim zaposlenikom klijentu signalizira da pružatelj usluga ima ljudske resurse za podršku klijentima, ali kupce ne cijene dovoljno da bi tako započeli interakciju", komentira ove nalaze profesorica Dootson. 

Kasno otkrivanje opcije za interakciju s ljudskim zaposlenikom povećava vjerojatnost agresije korisnika
Kasno otkrivanje opcije za interakciju s ljudskim zaposlenikom povećava vjerojatnost agresije korisnika

"Pružatelji usluga trebali bi dizajnirati chatbot skripte koje otkrivaju opciju interakcije s ljudskim zaposlenikom u ranoj fazi interakcije, čime bi korisnici bili svjesni moguće ljudske intervencije prije pojave kvarova usluge chatbota", savjetuje autorica rada "Chatbots and service failure: When does it lead to customer aggression".