Svjetska zdravstvena organizacija objavila smjernice za etičnu upotrebu generativne AI

Medicinska umjetna inteligencija mogla bi biti "opasna" za siromašnije nacije i članove društva, upozorava WHO koja se zalaže za neovisne recenzije LMM-ova i etičku obuku programera 

Mladen Smrekar utorak, 23. siječnja 2024. u 17:00
WHO upozorava na mogućnost
WHO upozorava na mogućnost "kolapsa modela", ciklusa dezinformacija u kojem LMM-ovi obučeni na netočnim ili lažnim informacijama zagađuju javne izvore informacija, poput Interneta freepik

Uvođenje zdravstvenih tehnologija temeljenih na umjetnoj inteligenciji moglo bi biti "opasno" za ljude u zemljama s nižim prihodima, upozorila je Svjetska zdravstvena organizacija (WHO) u svom najnovijem izvještaju o velikim multimodalnim modelima (LMM). Bitno je da upotrebu tehnologije u razvoju ne oblikuju samo tehnološke tvrtke i one u bogatim zemljama. Ako modeli nisu uvježbani na podacima ljudi s mjesta s nedostatkom resursa, algoritmi bi mogli loše opsluživati ​​tu populaciju, kaže WHO.

Zatečen događajima

"Posljednja stvar koju želimo vidjeti kao dio ovog skoka naprijed s tehnologijom je širenje ili pojačavanje nejednakosti i pristranosti u društvenom tkivu zemalja širom svijeta", ističe Alain Labrique, direktor odjela za digitalno zdravlje i inovacije.

Najveće tvrtke istiskuju i sveučilišta i vlade u istraživanju umjetne inteligencije, upozorava WHO 📷 Freepik
Najveće tvrtke istiskuju i sveučilišta i vlade u istraživanju umjetne inteligencije, upozorava WHO Freepik

Svoje prve smjernice o umjetnoj inteligenciji u zdravstvenoj skrbi WHO je izdao ne tako davne 2021. No zbog porasta snage i dostupnosti LMM-ova kao što je ChatGPT organizacija se osjetila ponukanom da ih ažurira manje od tri godine kasnije. LMM-ovi su "usvojeni brže od bilo koje potrošačke aplikacije u povijesti", kaže WHO, a zdravstvo je popularna meta. Modeli mogu izraditi kliničke bilješke, ispuniti obrasce i pomoći liječnicima u dijagnosticiranju i liječenju pacijenata. Nekoliko tvrtki i pružatelja zdravstvenih usluga razvija i specifične alate umjetne inteligencije.

Zaštita javnog zdravstva

WHO kaže da njegove smjernice, izdane kao savjet državama članicama, žele promicati i štititi javno zdravlje. U najgorem mogućem scenariju organizacija upozorava na globalnu "utrku prema dnu" u kojoj tvrtke žele biti prve koje će objaviti aplikacije, čak i ako one ne rade i nisu sigurne. To pak povećava mogućnost "kolapsa modela", ciklusa dezinformacija u kojem LMM-ovi obučeni na netočnim ili lažnim informacijama zagađuju javne izvore informacija, poput Interneta.

Vlade bi mogle od programera zahtijevati da registriraju rane algoritme, predlaže Svjetska zdravstvena organizacija 📷 Freepik
Vlade bi mogle od programera zahtijevati da registriraju rane algoritme, predlaže Svjetska zdravstvena organizacija Freepik

"Generativne AI tehnologije imaju potencijal poboljšati zdravstvenu skrb, ali samo ako oni koji razvijaju, reguliraju i koriste te tehnologije prepoznaju i u potpunosti uzmu u obzir povezane rizike", upozorava Jeremy Farrar, glavni znanstvenik WHO-a.

Istiskivanje akademske zajednice

Upravljanje ovim moćnim alatima ne smije se prepustiti samo tehnološkim tvrtkama, upozorava agencija. Vlade svih zemalja trebale bi, kažu, raditi zajedno kako bi se učinkovito regulirali razvoj i upotreba AI tehnologija. A civilno društvo i ljudi koji primaju zdravstvenu skrb morali bi pridonijeti svim fazama razvoja i implementacije LMM-a, uključujući njihov nadzor i regulaciju, stav je Svjetske zdravstvene organizacije.

S obzirom na visoke troškove obuke, implementacije i održavanja programa, WHO upozorava na opasnosti "industrijskog zarobljavanja" razvoja LMM-a. Sve je više dokaza da najveće tvrtke istiskuju i sveučilišta i vlade u istraživanju umjetne inteligencije, navodi se u izvješću, s "neviđenim" brojem doktoranada i nastavnika koji napuštaju akademsku zajednicu i odlaze u industriju.

Neovisna provjera

Smjernice zdravstvene organizacije preporučuju da neovisne treće strane provode i objavljuju obvezne revizije korištenih LMM-ova. Takve revizije trebale bi procijeniti koliko dobro alat štiti i podatke i ljudska prava, dodaje WHO koji se zalaže da programeri softvera i LMM-ova koji bi se mogli koristiti u zdravstvu ili znanstvenom istraživanju trebaju proći istu vrstu etičke obuke kao i medicinari. Vlade bi, predlažu, mogle od programera zahtijevati da registriraju rane algoritme kako bi potaknule objavljivanje negativnih rezultata i spriječile pristranost i reklame.