Sažeci koje piše ChatGPT zavarali znanstvenike
Istraživači ne mogu uvijek napraviti razliku između originalnih sažetaka znanstvenih radova i onih koje je generirala umjetna inteligencija

Chatbot umjetne inteligencije može napisati toliko uvjerljive sažetke istraživačkih radova da ih znanstvenici ne mogu razlikovati od onih koje su napisali ljudi. Otkriće objavljeno na serveru bioRxiv odmah je podijelilo znanstvenike koji strahuju zbog mogućih implikacija.
Etički problemi
Znanstvenici su već objavili preprint i uvodnik koji je napisao ChatGPT, a sad su istraživači Sveučilišta Northwestern u Chicagu upotrijebili ChatGPT za generiranje sažetaka istraživačkih radova. Time su htjeli testirati mogu li znanstvenici uočiti razliku.
Od chatbota zatražili da napiše 50 sažetaka na temelju medicinskih radova objavljenih u časopisima JAMA, The New England Journal of Medicine, The BMJ, The Lancet i Nature Medicine. Zatim su ih usporedili s izvornim sažecima tako što su ih provukli kroz detektor plagijata.
Strašne posljedice
Srednji rezultat originalnosti bio je 100%, što znači da plagijat nije otkriven. Detektor UI izlaza uočio je pak 66% generiranih sažetaka. Ali ni ljudski recenzenti nisu bili puno bolji: točno su identificirali samo 68% generiranih sažetaka i 86% originalnih sažetaka. Netočno su identificirali 32% generiranih sažetaka kao stvarne, a 14% pravih sažetaka kao generirane.
"ChatGPT piše vjerodostojne znanstvene sažetke. Granice etičke i prihvatljive upotrebe velikih jezičnih modela za pomoć znanstvenom pisanju tek treba odrediti", upozoravaju istraživači.
Štoviše, kažu, ako znanstvenici ne mogu utvrditi jesu li istraživanja istinita, moglo bi doći do "strašnih posljedica", ne samo za znanstvenu zajednicu nego i za društvo u cjelini. Naime, u najcrnijem scenariju više nitko zapravo neće znati što je od napisanog rezultat znanstvenog promišjanja, a što nije, kažu istraživači.
Suprotstavljena mišljenja
Neki, poput Arvinda Narayanana sa Sveučilišta Princeton smiruju paniku i tvrde kako je "malo vjerojatno da će ijedan ozbiljan znanstvenik koristiti ChatGPT za generiranje sažetaka". On smatra kako je potpuno "irelevantno" hoće li se generirani sažeci moći otkriti.
Irene Solaiman, istraživačica društvenih utjecaja umjetne inteligencije u UI kompaniji Hugging Face, strahuje pak od oslanjanja na velike jezične modele u znanstvenom razmišljanju. "Ovi su modeli uvježbani na informacijama iz prošlosti, a društveni i znanstveni napredak često proizlazi iz otvorenosti za razmišljanje koje je drugačije od ustaljenog."
Pravila i metode
Autori tvrde da bi znanstvena zajednica trebala uspostaviti pravila i metode kojima će se iskorijeniti upotreba tekstova generiranih umjetnom inteligencijom. Ako institucije odluče dopustiti korištenje tehnologije u određenim slučajevima, one bi trebale uspostaviti i jasna pravila o otkrivanju podataka. Četrdeseta međunarodna konferencija o strojnom učenju koja će se u srpnju održati u Honoluluu već je zabranila radove napisane pomoću ChatGPT-a i drugih jezičnih alata.
U područjima gdje lažne informacije mogu ugroziti sigurnost ljudi, kao što je medicina, časopisi će možda morati zauzeti rigorozniji pristup provjeri informacija. Sva pažnja, kažu oni, ne bi se pritom trebala usredotočiti samo na chatbote nego i na razna sveučilišta koja "štancaju" (pseudo)znanstvene radove bez obzira na njihovu kvalitetu ili utjecaj, piše časopis Nature.