Samo 0,7 % objašnjive AI testirano na ljudima

Istraživači MIT-a pozivaju na rigoroznija testiranja: 'Ako dizajnirate za ljude, testirajte na njima"

Mladen Smrekar srijeda, 21. siječnja 2026. u 21:40
Nema empirijskih dokaza da se XAI radovi mogu objasniti ljudima 📷 Freepik
Nema empirijskih dokaza da se XAI radovi mogu objasniti ljudima Freepik

Mnogi AI sustavi najobičnije su "crne kutije" u koju podaci ulaze, a rezultati izlaze bez razumijevanja procesa, upozoravaju istraživači Lincolnovog laboratorija na MIT-u. Kako bi pomogla ljudima da shvate što se događa, takozvana objašnjiva umjetna inteligencija (XAI) oslanja se na tehnike poput zaključivanja na temelju pravila, korištenja primjera i objašnjenja temeljenih na tekstu. Međutim, nije sasvim jasno koliko je ovih sustava, za koje se tvrdi da ih ljudi mogu objasniti, testirano na stvarnim ljudima.

Istraživači s Lincolna pročešljali su 18.254 XAI rada i ostali šokirani rezultatima 📷 Ho Chit Siu, Ashley Suh, Nore Smith, Isabelle Hurley
Istraživači s Lincolna pročešljali su 18.254 XAI rada i ostali šokirani rezultatima Ho Chit Siu, Ashley Suh, Nore Smith, Isabelle Hurley

​Istraživači s Lincolna pročešljali su 18.254 XAI rada iz posljednjeg desetljeća s ​​naglaskom na pitanje: "Od svih XAI radova koji tvrde da se mogu objasniti ljudima, koliko njih potvrđuje te tvrdnje empirijskim dokazima?“ Šokirali su se kad su otkrili da samo njih 253 uopće spominju ljudsku evaluaciju, a empirijskim testovima na ljudima potvrđene su tvrdnje u tek 126 radova ili mizernih 0,7 %.

Prema uvriježenim standardima XAI bi ovu fotografiju skinutu s Pixavaya mogla opisati kao "međukontinentalni leteći stroj", upozoravaju istraživači 📷 David Lepore/Pixabay
Prema uvriježenim standardima XAI bi ovu fotografiju skinutu s Pixavaya mogla opisati kao "međukontinentalni leteći stroj", upozoravaju istraživači David Lepore/Pixabay

"Očekivali smo 30-40 %, ne 0,7 %", komentirali su istraživači nalaze pregleda.
U tim su radovima, kažu, obilato korišteni labavi kriteriji poput "prirodnog jezika", bez dokaza da ih ljudi stvarno razumiju. Rezultati pokazuju da problem nije samo XAI; slično se događa i u medicini i sigurnosti, upozoravaju. Istraživači stoga pozivaju na rigoroznija testiranja: "Ako dizajnirate za ljude, testirajte na njima".