Sažeci koje piše ChatGPT zavarali znanstvenike

Istraživači ne mogu uvijek napraviti razliku između originalnih sažetaka znanstvenih radova i onih koje je generirala umjetna inteligencija

Mladen Smrekar ponedjeljak, 16. siječnja 2023. u 07:15
📷 pch.vector
pch.vector

Chatbot umjetne inteligencije može napisati toliko uvjerljive sažetke istraživačkih radova da ih znanstvenici ne mogu razlikovati od onih koje su napisali ljudi. Otkriće objavljeno na serveru bioRxiv odmah je podijelilo znanstvenike koji strahuju zbog mogućih implikacija.

Etički problemi

Znanstvenici su već objavili preprint i uvodnik koji je napisao ChatGPT, a sad su istraživači Sveučilišta Northwestern u Chicagu upotrijebili ChatGPT za generiranje sažetaka istraživačkih radova. Time su htjeli testirati mogu li znanstvenici uočiti razliku.

Otkako je softverska tvrtka OpenAI krajem studenog predstavila alat koji je potpuno besplatan je za korištenje, istraživači se bore s etičkim problemima njegove upotrebe jer je velik dio njegovih rezultata teško razlikovati od teksta koji su napisali ljudi 📷 pch.vector
Otkako je softverska tvrtka OpenAI krajem studenog predstavila alat koji je potpuno besplatan je za korištenje, istraživači se bore s etičkim problemima njegove upotrebe jer je velik dio njegovih rezultata teško razlikovati od teksta koji su napisali ljudi pch.vector

Od chatbota zatražili da napiše 50 sažetaka na temelju medicinskih radova objavljenih u časopisima JAMA, The New England Journal of Medicine, The BMJ, The Lancet i Nature Medicine. Zatim su ih usporedili s izvornim sažecima tako što su ih provukli kroz detektor plagijata.

Strašne posljedice

Srednji rezultat originalnosti bio je 100%, što znači da plagijat nije otkriven. Detektor UI izlaza uočio je pak 66% generiranih sažetaka. Ali ni ljudski recenzenti nisu bili puno bolji: točno su identificirali samo 68% generiranih sažetaka i 86% originalnih sažetaka. Netočno su identificirali 32% generiranih sažetaka kao stvarne, a 14% pravih sažetaka kao generirane.

Autorica istraživanja Catherine Gao (lijevo) boji se strašnih posljedica korištenja chatbota u znanosti, a njene strahove dijeli i i Irene Solaiman (desno) iz Hugging Facea
Autorica istraživanja Catherine Gao (lijevo) boji se strašnih posljedica korištenja chatbota u znanosti, a njene strahove dijeli i i Irene Solaiman (desno) iz Hugging Facea

"ChatGPT piše vjerodostojne znanstvene sažetke. Granice etičke i prihvatljive upotrebe velikih jezičnih modela za pomoć znanstvenom pisanju tek treba odrediti", upozoravaju istraživači.

Štoviše, kažu, ako znanstvenici ne mogu utvrditi jesu li istraživanja istinita, moglo bi doći do "strašnih posljedica", ne samo za znanstvenu zajednicu nego i za društvo u cjelini. Naime, u najcrnijem scenariju više nitko zapravo neće znati što je od napisanog rezultat znanstvenog promišjanja, a što nije, kažu istraživači.

Suprotstavljena mišljenja

Neki, poput Arvinda Narayanana sa Sveučilišta Princeton smiruju paniku i tvrde kako je "malo vjerojatno da će ijedan ozbiljan znanstvenik koristiti ChatGPT za generiranje sažetaka". On smatra kako je potpuno "irelevantno" hoće li se generirani sažeci moći otkriti. 

ChatGPT piše vjerodostojne znanstvene sažetke, otkrili su istraživači 📷 Vectorjuice
ChatGPT piše vjerodostojne znanstvene sažetke, otkrili su istraživači Vectorjuice

Irene Solaiman, istraživačica društvenih utjecaja umjetne inteligencije u UI kompaniji Hugging Face, strahuje pak od oslanjanja na velike jezične modele u znanstvenom razmišljanju. "Ovi su modeli uvježbani na informacijama iz prošlosti, a društveni i znanstveni napredak često proizlazi iz otvorenosti za razmišljanje koje je drugačije od ustaljenog."

Pravila i metode

Autori tvrde da bi znanstvena zajednica trebala uspostaviti pravila i metode kojima će se iskorijeniti upotreba tekstova generiranih umjetnom inteligencijom. Ako institucije odluče dopustiti korištenje tehnologije u određenim slučajevima, one bi trebale uspostaviti i jasna pravila o otkrivanju podataka. Četrdeseta međunarodna konferencija o strojnom učenju koja će se u srpnju održati u Honoluluu već je zabranila radove napisane pomoću ChatGPT-a i drugih jezičnih alata.

Arvinda Narayanana sa Sveučilišta Princeton ne vjeruje da će ozbiljni znanstvenici koristiti ChatGPT za generiranje sažetaka
Arvinda Narayanana sa Sveučilišta Princeton ne vjeruje da će ozbiljni znanstvenici koristiti ChatGPT za generiranje sažetaka

U područjima gdje lažne informacije mogu ugroziti sigurnost ljudi, kao što je medicina, časopisi će možda morati zauzeti rigorozniji pristup provjeri informacija. Sva pažnja, kažu oni, ne bi se pritom trebala usredotočiti samo na chatbote nego i na razna sveučilišta koja "štancaju" (pseudo)znanstvene radove bez obzira na njihovu kvalitetu ili utjecaj, piše časopis Nature.