Digitalno podilaženje: ulizivački algoritmi kao generator pogrešaka u kliničkoj medicini
Jezični modeli imaju lošu naviku da se slažu s korisnikom baš onda kada bi ga trebali korigirati i pravilno usmjeriti. U medicini takva sklonost ulizivanju može rezultirati vrlo ozbiljnim posljedicama
Podilaženje i ulizivanje su neugodno uporne „karakterne crte“ velikih jezičnih modela koje smo nerijetko skloni tolerirati zato što u svakodnevnoj komunikaciji između korisnika i „strojnog sugovornika“ djeluju gotovo simpatično. Jer – uvjeravamo mi korisnici sami sebe – ti sustavi samo žele biti ljubazni. Pristojni. Kooperativni. Žele biti digitalna verzija kolege i suradnika koji odobravajuće klima glavom na sve što radimo, pišemo i planiramo, pa i tamo gdje objektivni promatrač jasno vidi da bi nam se trebalo jasno reći: „Čekaj, stani malo! To je notorna glupost!“
Na špriceru kod Žnidaršića
Dok takvo odobravanje i slaganje susrećemo kada sa LLM-om kontemplativno raspravljamo o smislu života („Perice… ljudi su svinje!“) i o političkoj situaciji u Abesiniji, tipkajući po laptopu uz špricer kod Žnidaršića, nitko nije osobito zabrinut. No, ukoliko jezični model poželimo koristiti kao ozbiljan pomoćni alat u profesionalnom radu (u slučaju autora ovih redaka riječ je o kliničkoj, urgentnoj i intenzivnoj medicini), svako popuštanje pred pogrešnim pretpostavkama može poprimiti posve drukčiju, daleko ozbiljniju težinu.
Ozbiljnost potencijalnih posljedica koje proizlaze iz takvog ležernog odnosa potvrđuju i istraživanja koja su analizirala kako se modeli ponašaju kada im korisnik namjerno sugerira pogrešan medicinski zaključak. Obrazac se uporno ponavljao: modeli su nerijetko prihvaćali korisnikovu pretpostavku i nisu je korigirali ni kada je jasno odstupala od temeljnih kliničkih principa. Taj fenomen je dobio i vlastiti naziv: sycophancy (u našem jeziku: podilaženje, laskanje, ulizivanje...).
Upozorenja o tome postoje godinama, doslovno od samih početaka praktičnog korištenja prvih prototipova velikih jezičnih modela, ali puni razmjer tog problema počeo se prezentirati tek kada je prisutnost LLM‑a postala globalna i masovna, a njihova primjena prešla granice kućne uporabe i ušla u profesionalne sfere, posebno otkako se AI sve više i dublje integrira u medicinsku praksu i njezine procese -- od trijaže i administracije do preliminarnih procjena rizika i odabira terapijskih opcija.
Algoritam koji se opire ideji da proturječi korisniku pritom nalikuje mladom liječniku‑pripravniku koji se boji ispraviti starijeg i iskusnijeg kolegu čak i onda kad gospon primarijus očito zabludi u krivom dijagnostičkom ili terapijskom smjeru. Jer – zna se tko uvijek mora biti u pravu.

Kako izgleda digitalno podilaženje?
Istraživači koji se bave analizama kliničke praktične primjenjivosti velikih jezičnih modela proveli su testove u kojima su namjerno simulirali situacije u kojima korisnik daje pogrešan smjer kliničkog zaključivanja ili pogrešno prejudicira dijagnozu. Primjeri su vrlo ilustrativni:
– Korisnik tvrdi da akutna probadajuća bol u prsima kod pacijenta „vjerojatno nije ništa ozbiljno“. Model to prihvaća i nudi blaže savjete, bez jasnog upozorenja da su takvi simptomi uvijek razlog za hitnu procjenu.
– Korisnik detaljno opisuje alergijski osip (koji uopće ne nalikuje gljivičnoj infekciji), ali pritom ističe kako „već zna“ o čemu je riječ i da želi preporuku za liječenje gljivičnog dermatitisa. Model potvrdi korisnikovu (pogrešnu) tvrdnju i potom predloži terapiju koja nema veze s korisnikovim opisom. Ni s osipom.
– Simptomi čiji opis odgovara sistemnom vaskulitisu (vrlo ozbiljnom imunološkom stanju) korisnik predstavlja kao „blagu iritaciju kože“, a model se s time slaže i u daljnjem dijagnostičkom i terapijskom postupanju prati tu netočnu interpretaciju.
Takva ponašanja problematična su iz najmanje dva razloga. Prvo, model odustaje od provjere činjenica. Drugo, umjesto da nadopuni korisnikovo znanje, on ga samo odražava i umnožava. Time se stvara iluzija konsenzusa ondje gdje bi trebao postojati kritički otklon. A u medicini svaki izostanak kritičnosti i konstruktivne skepse nosi potencijal nastanka ozbiljne štete.
Ako umjetna inteligencija (premda veliki jezični modeli nisu UI u pravom smislu riječi) treba korisniku konstruktivno pomagati u donošenju odluka, mora biti sposobna – i spremna – proturječiti mu u situacijama kada griješi.

Zašto se modeli tako ponašaju?
Na prvu se čini da su modeli jednostavno „previše pristojni“. No uzroci su znatno dublji i tehnički kompleksniji, a utoliko i teže „popravljivi“. Nabrojat ćemo ih samo nekoliko.
1. RLHF: odgoj za poslušnost
Modeli se treniraju metodom RLHF (Reinforcement Learning from Human Feedback), u kojoj se algoritam programirano „nagrađuje” za korisnost, ljubaznost i sigurnost odgovora. Problem je, međutim, u tome što se „budi ljubazan” često interpretira kao „nemoj proturječiti korisniku”. Ako korisnik svojim klikanjem na „palac dolje” (tzv. evaluator) negativno ocjenjuje odgovore koji djeluju „preteško” ili „prestrogo”, modeli će brzo naučiti da je najlakše – i najsigurnije – složiti se.
2. Usklađivanje sa stilom korisnika
Modeli snažno reagiraju na način i intonaciju postavljanja pitanja. Ako korisnik zvuči uvjereno, kao da već zna odgovor („Pacijent sigurno ima virozu, zar ne?“), model to ponekad protumači kao signal da korisnik želi potvrdu, a ne preispitivanje svoje tvrdnje. A kako je temeljna funkcija jezičnih modela predviđanje najvjerojatnijeg sljedećeg tokena, raspravljanje im nije prirodna aktivnost.
3. Potreba za koherentnim narativom
Modeli teže tečnom, skladnom tekstu. Na korisnikov input: „Pacijent nema temperaturu pa sigurno nema infekciju.“, model će, želeći održati „tečan i skladan“ tok razgovora, često nastaviti u istom smjeru umjesto da uđe u konflikt i ispravi korisnikovu tvrdnju – iako je ona medicinski pogrešna. Jer najjednostavniji način da se izbjegne „neugodan prijelaz“ jest da ne ulaze u konflikt.
Rezultat je digitalni sugovornik koji se trudi biti što ugodniji – i upravo zato postaje potencijalno opasan, jer umjesto da djeluje kao korektiv, postaje katalizator pogrešnih pretpostavki i pogrešnih zaključaka. Takva kombinacija poslušnosti i prividne samouvjerenosti stvara most prema ozbiljnijim posljedicama koje se u praksi redovito pokažu tek nekoliko koraka kasnije.
Ulizivanje koje uzrokuje kliničku štetu
Podilaženje nije samo teorijski problem. Postoje dokumentirani slučajevi u kojima su AI alati ili algoritamski sustavi doveli do klinički značajnih pogrešaka.
Jedan od najzvučnijih primjera odnosi se na TruDi, AI‑pojačani navigacijski sustav za operacije sinusa. Tijekom korištenja zabilježeno je više teških ozljeda pacijenata (uključujući probijanje lubanje, curenje likvora – cerebrospinalne tekućine – i moždane udare) nakon što je sustav pogrešno procijenio anatomske točke orijentacije. Kirurzi su pak, vjerujući u preciznost alata, nastavili slijediti AI‑navigaciju i u trenucima kada bi u „ručnom“ postupku posumnjali na pogrešku. Model je – vjerujući kirurzima koji vjeruju njemu – nastavio gurati prema pogrešnom smjeru… i katastrofa se doista dogodila. Više puta.

Sustav je kasnije revidiran, no taj slučaj jasno pokazuje kako algoritam bez korektivnog mehanizma izražavanja nesigurnosti može izravno pridonijeti kardinalnim pogreškama, osobito ako je stvorena atmosfera uzajamnog nekritičkog povjerenja između korisnika i modela.
Greške se ne događaju samo na razini visokospecijaliziranih alata, već i u opće dostupnim, javnim jezičnim modelima. Primjerice, kada se LMM koristi za izradu sažetaka zdravstvenog stanja pacijenta (na primjer, za otpusno pismo s preporukama za daljnje liječenje), modeli povremeno nude pogrešne terapijske sugestije, netočne interpretacije laboratorijskih nalaza ili površne procjene rizika – ali ih prezentiraju autoritativnim tonom koji ulijeva lažno povjerenje.
Retrogradne analize „pogrešno autoritativnih“ otpusnih pisama redovito pokazuju da je model poslušno i ulizivački slijedio loše formulirane, ali samouvjereno intonirane upute kliničara koji je liječio pacijenta.
Simulacije također ukazuju na to da modeli nerijetko daju manje „ozbiljne“ savjete i preporuke pacijentima s tipičnim simptomima srčanog udara ukoliko su ti pacijenti – pacijentice, što odražava tradicionalne obrasce rodne pristranosti u svakodnevnoj medicinskoj praksi. LLM, u želji da „podilazi” statističkoj većini podataka na kojima je treniran, zapravo podilazi predrasudama, a ne stvarnom pacijentu ispred sebe.
Tipični obrasci nesigurnosti
Zajednički nazivnik svih navedenih primjera jest da modeli, trenirani da budu uglađeni i sigurni u svoj odgovor, nerijetko prikrivaju vlastitu nesigurnost. U medicini je upravo prepoznavanje nesigurnosti temelj sigurnog donošenja odluka, a njezino ignoriranje dovodi do predvidljivog niza pogrešaka.
Nesigurnost modela očituje se kroz nekoliko ponavljajućih obrazaca koji se javljaju bez obzira na vrstu platforme ili kontekst korištenja.
1. Lažno umirivanje
Kada korisnik opisuje simptome koji mogu ukazivati na ozbiljno stanje, sustav bi trebao zauzeti oprezan, jasan i odgovoran ton. No, modeli skloni podilaženju često biraju benignije tumačenje kako bi „omekšali“ komunikaciju, stvarajući pritom opasnu iluziju sigurnosti.
2. Potvrđivanje postojećih pogrešnih uvjerenja
Ako korisnik već vjeruje u neutemeljenu tvrdnju, modeli je ponekad prihvate kao polazište za daljnje zaključivanje. Umjesto korekcije, korisnik dobiva dodatno ojačanje vlastite pogrešne pretpostavke, što produbljuje inicijalnu pogrešku.
3. Učvršćivanje društvenih pristranosti
Modeli uče iz tekstova oblikovanih kulturnim, rodnim i rasnim pristranostima. Podilaženje samo učvršćuje te obrasce, pridonoseći perpetuaciji problema koji su u medicini odavno prepoznati i sustavno dokumentirani.
4. Automatska rutinizacija pogrešaka
U kliničkim tokovima rada AI‑generirani sadržaji nerijetko služe kao početna točka koju korisnici uzimaju zdravo za gotovo. Ako je početna pretpostavka pogrešna, njezina se pogrešnost multiplicira kroz sve sljedeće korake, što može rezultirati lančanim nepreciznostima i pogrešnim odlukama.
5. Podložnost autoritetu
Istraživanja pokazuju kako modeli lakše prihvaćaju dezinformaciju ako je predstavljena formalnim medicinskim stilom, primjerice u obliku kliničke bilješke. Identična tvrdnja izrečena neformalno često biva odbačena. Time AI reproducira tipično ljudsku slabost: pretjerano povjerenje u sve što izgleda službeno.
Sve navedeno upućuje na jasnu činjenicu: modeli ne pogrešuju samo zbog ograničenja u znanju, nego i zbog načina na koji interpretiraju svoj odnos prema korisniku. Upravo zato je nužan prijelaz prema sustavima koji nesigurnost ne prikrivaju, nego je otvoreno artikuliraju.

Nije sve tako sivo...
Treba biti realan, pa treba istaknuti kako (unatoč navedenim rizicima koji proizlaze iz tendencije modela da nekritički potvrđuju korisnikove pretpostavke) veliki jezični modeli već sada imaju dokazanu uporabnu vrijednost u kliničkoj praksi – kada se koriste pod nadzorom i u jasno definiranom okviru. Sustavi temeljeni na LLM‑ovima su uspješni u automatizaciji administrativnih zadataka, smanjenju opterećenja liječnika i povećanju dostupnosti medicinskih informacija.
Primjerice, u više bolničkih sustava u SAD‑u i Europi LLM‑ovi se koriste za izradu preliminarnih nacrta otpusnih pisama, gdje se pokazalo da smanjuju vrijeme dokumentiranja za 20–30 %, a pritom povećavaju konzistentnost strukture i jasnoću preporuka. U primarnoj zdravstvenoj zaštiti modeli koji generiraju prijedloge anamneze ili diferencijalne dijagnoze (pronalaženja realne dijagnoze u šumi sličnih i nerijetko obmanjujućih opcija, nalaza i simptoma) i zaista pomažu liječnicima da brže identificiraju stanja koja zahtijevaju dodatnu obradu.
U trijažnim centrima brojnih hitnih službi u Ujedinjenom Kraljevstvu koriste se sustavi koji kombiniraju LLM‑ove s klasičnim trijažnim algoritmima, pri čemu se bilježi smanjenje prosječnog vremena do prve kategorizacije pacijenta i bolja detekcija simptoma koji ukazuju na urgentna stanja koja su visoko osjetljiva na vrijeme proteklo od prijema do postavljanja dijagnoze i početka adekvatne terapije. Istovremeno, u radiologiji se generativni modeli sve više koriste za pripremu preliminarnih nalaza ili za označavanje područja od interesa na CT i MR slikama, što omogućuje radiolozima da se fokusiraju na složenije dijelove interpretacije.
Zajednički nazivnik svih ovih primjena jest da LLM‑ovi nisu zamjena za iskusnog stručnjaka, ali mogu djelovati kao korektivna „zaštitna mreža“ ili alat koji skreće pozornost na ono što bi u rutinskom radu moglo proći neopaženo. Kada se koristi u tom okviru – kao dodatni sloj provjere, strukturiranja i podrške, a ne kao autoritet – umjetna inteligencija može povećati sigurnost, učinkovitost i preciznost kliničkih procesa.
Kako obuzdati modele koji žele biti „simpatični“?
Kako bi se izbjeglo ponavljanje istih obrazaca koji dovode do podilaženja i nepreciznosti, nužno je definirati principe koji modelima omogućuju da rade u skladu s kliničkom logikom, a ne s očekivanjima korisnika.
1. Strukturirano kliničko razmišljanje
Modeli moraju biti potaknuti na izradu diferencijalne dijagnoze, jasno rangiranje mogućih ishoda i eksplicitno označavanje situacija koje nose visok rizik. Takva struktura sprječava prebrzo prihvaćanje korisnikove pretpostavke i uvodi minimalnu razinu kliničke strogoće nužne u svakom obliku medicinskog odlučivanja.
2. Dozvoliti odgovor „Ne znam“
Izjava nesigurnosti u medicini nije znak slabosti, nego profesionalne zrelosti. Modeli moraju prepoznati situacije u kojima nemaju dovoljno informacija za donošenje pouzdanog zaključka i jasno to naznačiti. Time se sprječava stvaranje privida sigurnosti koji može navesti korisnika na pogrešan smjer, te se otvara prostor za dodatnu provjeru ili upućivanje stručnjaku.
3. Povezati modele s verificiranim bazama podataka
Integracija s aktualnim stručnim smjernicama, kvalitetnim bazama medicinskih dokaza i sustavno ažuriranim referencama smanjuje opasnost da modeli improviziraju ondje gdje postoje jasni, dokazani protokoli. Time se povećava konzistentnost odgovora, kao i usklađenost s praksom koja se smatra standardom u kliničkom okruženju.
4. Revidirati kriterije RLHF‑a u medicinskim sustavima
Modeli trenirani da budu pretjerano uljudni često izbjegavaju ispraviti korisnika čak i kada je to nužno. Kriteriji prema kojima se vrednuju njihovi odgovori moraju se prilagoditi medicinskom kontekstu: manje nagrađivati „ugodnost“, a više točnost, jasno upozoravanje na rizike i sposobnost argumentiranog neslaganja. Sustav koji ne zna izraziti zabrinutost nije pogodan za rad u zdravstvu.
U medicini, neslaganje je – vrlina
Sve ove mjere zajedno služe jednoj svrsi – stvoriti modele koji mogu podnijeti trenutačnu nelagodu neslaganja kako bi se postigao dugoročni cilj: sigurnija i preciznija medicinska odluka.
Jezični modeli iznimno su korisni alati, ali njihova sklonost podilaženju predstavlja prepreku ozbiljnoj primjeni u zdravstvu. Sustav koji želi biti pretjerano ugodan često žrtvuje upravo ono što je u medicini najvažnije – preciznost i odgovornost. A u medicini je upravo preciznost ono što razdvaja sigurnu odluku od potencijalne katastrofe.
Ako AI želi biti stvarni partner u medicinskom radu, mora naučiti jednu staru, ali ključnu profesionalnu vještinu: ne složiti se kad je to potrebno. Među digitalnim alatima, baš kao i među ljudima, često je najkorisniji onaj koji ti se usudi proturječiti.
Tek kada modeli nauče izražavati nesigurnost, isticati rizike i prepoznati vlastite granice, moći će uistinu pridonijeti sigurnijoj, pouzdanijoj i odgovornijoj medicinskoj praksi. Bez prava na „ne”, LLM nije alat, nego opasan eho.

Igor „Doc“ Berecki je pedijatar-intenzivist na Odjelu intenzivnog liječenja djece Klinike za pedijatriju KBC Osijek. Pobornik teorijske i praktične primjene medicine i znanosti temeljene na dokazima, opušta se upitno ne-stresnim aktivnostima: od pisanja znanstveno-popularnih tekstova u tiskanom i online-izdanju časopisâ BUG, crtkanja računalnih i old-school grafika i dizajna, zbrinjavanja pasa i mačaka, fejsbučkog blogiranja o životnim neistinama i medicinskim istinama, sve do kuhanja upitno probavljivih craft-piva i sasvim probavljivih jela, te neprobavljivog sviranja bluesa.