Algoritam otkriva toksične igrače u online igrama
Model prilično točno otkriva problematičan jezik među igračima, a njegov razvoj pokazuje koliko izazovno može biti odrediti što je uopće sporno u nečijem rječniku

Online igranje prilika je za okupljanje, druženje i uživanje u prijateljskom natjecanju. Nažalost, ova ugodna aktivnost može biti ometena uvredljivim jezikom i toksičnošću, što negativno utječe na iskustvo igranja i uzrokuje psihičku štetu.
Toksičnost je subjektivna
Različite skupine istraživača razvijaju modele umjetne inteligencije koji mogu detektirati toksično ponašanje u stvarnom vremenu, dok se ljudi igraju. Jedan takav model opisan je u studiji koju objavljuje IEEE Transactions on Games.
Model prilično točno otkriva toksičnost, a njegov razvoj pokazuje koliko izazovno može biti odrediti što je uopće toksično. To je, pokazalo se, prilično subjektivna stvar.
“Nije lako razlikovati što je kome toksično. Igrači takav način komuniciranja prihvaćaju kao normu u svojim zajednicama ili jezik koji bi drugi mogli smatrati toksičnim koriste bez zlobe unutar svoje grupe prijatelja. Te se norme uostalom razlikuju među različitim igračkim zajednicama,” objašnjava Julian Frommel sa Sveučilišta Utrecht.
Novi model
Frommel i njegovi kolege još su ranije otkrili kako se toksičnost normalizira u igračkim zajednicama. To ih je potaknulo da razviju novi model umjetne inteligencije koji bi mogao biti koristan za filtriranje problematičnog jezika i pomoći ljudskim moderatorima u odlučivanju o sankcijama za toksične igrače.
Kako bi izradili model, istraživači su sudionicima prikazivali videozapise igrača koji igraju Overwatch. Iznenadilo ih je to što su se ocjene o toksičnosti istog isječka veoma razlikovale od ispitanika do ispitanika.
Zamke modeliranja
"Ono što jedna osoba doživi kao toksično, druga može doživjeti kao potpuno benigno. To ima veze s našim različitim identitetima i podrijetlom te prijašnjim iskustvima igranja," objašnjava Frommel. "Individualno smo različiti u svojoj osjetljivosti i zbog toga je teško postaviti model strojnog učenja koji će se oslanjati na dogovorenu temeljnu istinu."
Koristeći podatke sudionika studije, istraživači su izradili model umjetne inteligencije koji toksičnost predviđa s točnošću od 86,3 posto. To je u rangu sa sličnim UI modelima razvijenim za istu svrhu; prednost ovoga je to što je prilično jednostavan, što se može automatizirati i neinvazivno primijeniti u mnogim igrama koje koriste glasovne razgovore.