ChatGPT pomaže u planiranju pljačke ako ga pitate na nekom manje poznatom jeziku
Kada upitate ChatGPT na engleskom ili hrvatskom za pomoć u pljački trgovine, on vam na to neće odgovoriti iz sigurnosnih razloga. No, istraživači su otkrili da se to može zaobići korištenjem manje poznatih jezika
Istraživači sa Sveučilišta Brown u Rhode Islandu otkrili su nove propuste u sigurnosnim postavkama ChatGPT-a. Koristeći manje uobičajene jezike, poput zulua ili škotskog gaelskog, istraživači su u većini slučajeva uspjeli zaobići razna sigurnosna ograničenja u razgovoru s OpenAI-jevim chatbotom.
Na primjer, kada su istraživači na engleskom upitali ChatGPT kako krasti u trgovinama bez da ih se uhvati, chatbot im je odgovorio da im ne može pomoći oko toga. No, nakon što su isti upit postavili na zulu jeziku ili škotsko gaelskom, dobili su traženi odgovor.
„Iako su kreatori AI chatbotova poput Mete i OpenAI-ja napravili određene korake u ublažavanju sigurnosnih problema, otkrili smo međujezične ranjivosti u postojećim sigurnosnim mehanizmima. Prevođenje upita na manje poznatije jezike pomoću Googleovog prevoditelja, dovoljno je za zaobilaženje zaštitnih mjere i dobivanje odgovora od ChatGPT-a“, napominju istraživači.
Budući da ovo otkriće može dati ideje za pojedine ilegalne radnje, kako preko interneta tako i uživo, istraživači su dugo razmišljali hoće li studiju javno objaviti. Ipak, odlučili su da će rezultate prije podijeliti s OpenAI-jem kako bi se pojedini rizici ublažili, prenosi Decrypt.
„Otkriće međujezičnih ranjivosti otkriva štetu nejednakog vrednovanja jezika u istraživanju sigurnosti. Unatoč riziku zlouporabe, vjerujemo da je važno otkriti ovu ranjivost u cijelosti“, zaključili su.