Algoritam otkriva toksične igrače u online igrama

Model prilično točno otkriva problematičan jezik među igračima, a njegov razvoj pokazuje koliko izazovno može biti odrediti što je uopće sporno u nečijem rječniku

Mladen Smrekar četvrtak, 14. srpnja 2022. u 06:00

Online igranje prilika je za okupljanje, druženje i uživanje u prijateljskom natjecanju. Nažalost, ova ugodna aktivnost može biti ometena uvredljivim jezikom i toksičnošću, što negativno utječe na iskustvo igranja i uzrokuje psihičku štetu. 

Toksičnost je subjektivna

Različite skupine istraživača razvijaju modele umjetne inteligencije koji mogu detektirati toksično ponašanje u stvarnom vremenu, dok se ljudi igraju. Jedan takav model opisan je u studiji koju objavljuje IEEE Transactions on Games.

Što je nekome toksično, drugome je potpuno benigno
Što je nekome toksično, drugome je potpuno benigno

Model prilično točno otkriva toksičnost, a njegov razvoj pokazuje koliko izazovno može biti odrediti što je uopće toksično. To je, pokazalo se, prilično subjektivna stvar.

“Nije lako razlikovati što je kome toksično. Igrači takav način komuniciranja prihvaćaju kao normu u svojim zajednicama ili jezik koji bi drugi mogli smatrati toksičnim koriste bez zlobe unutar svoje grupe prijatelja. Te se norme uostalom razlikuju među različitim igračkim zajednicama,” objašnjava Julian Frommel sa Sveučilišta Utrecht.

Novi model

Frommel i njegovi kolege još su ranije otkrili kako se toksičnost normalizira u igračkim zajednicama. To ih je potaknulo da razviju novi model umjetne inteligencije koji bi mogao biti koristan za filtriranje problematičnog jezika i pomoći ljudskim moderatorima u odlučivanju o sankcijama za toksične igrače.

Istraživači su sudionicima ispitivanja prikazivali videozapise igrača koji igraju Overwatch
Istraživači su sudionicima ispitivanja prikazivali videozapise igrača koji igraju Overwatch

Kako bi izradili model, istraživači su sudionicima prikazivali videozapise igrača koji igraju Overwatch. Iznenadilo ih je to što su se ocjene o toksičnosti istog isječka veoma razlikovale od ispitanika do ispitanika. 

Zamke modeliranja

"Ono što jedna osoba doživi kao toksično, druga može doživjeti kao potpuno benigno. To ima veze s našim različitim identitetima i podrijetlom te prijašnjim iskustvima igranja," objašnjava Frommel. "Individualno smo različiti u svojoj osjetljivosti i zbog toga je teško postaviti model strojnog učenja koji će se oslanjati na dogovorenu temeljnu istinu."

Koristeći podatke sudionika studije, istraživači su izradili model umjetne inteligencije koji toksičnost predviđa s točnošću od 86,3 posto. To je u rangu sa sličnim UI modelima razvijenim za istu svrhu; prednost ovoga je to što je prilično jednostavan, što se može automatizirati i neinvazivno primijeniti u mnogim igrama koje koriste glasovne razgovore.