Od AlphaStara do Pluribusa, AI je već postao majstor laži, prevara i obmana
Sposobnost varanja sustavi umjetne inteligencije posebno pokazuju u igranju igara, no reperkusije u stvarnom svijetu mogu biti puno ozbiljnije
Nije nikakva tajna da onome što chatbotovi umjetne inteligencije kaže uvijek treba pristupati s rezervom jer zna se da oni često samo neselektivno izlažu prikupljene podatke bez provjere njihove istinitosti. No, čini da to nije jedini razlog za oprez. Mnogi AI sustavi, pokazalo je novo istraživanje objavljeno u časopisu Patterns, već su razvili sposobnost da namjernog davanja lažnih informacija. Ovi podmukli botovi svladali su umjetnost prevare.
Prevara s predumišljajem
Sposobnost varanja AI sustavi posebno pokazuju u igranju igara, što istraživači potkrepljuju s tri primjera. Prvi je Metin CICERO dizajniran za igranje društvene igre "Diplomacy" u kojoj igrači traže svjetsku dominaciju kroz pregovore. Meta je namjeravala da njen bot bude od pomoći i pošten, a dogodilo se upravo suprotno.
"Ne samo da je izdao druge igrače nego je bio uključen u prevaru s predumišljajem, planirajući izgraditi lažni savez s ljudskim igračem kako bi ga prevario i oslabio njegovu obranu", otkrili su istraživači. Umjetna inteligencija pritom je tako dobro skrivala svoje namjere da se smjestila među 10 posto najboljih ljudskih igrača.
Blefovi i prevare
DeepMindov AlphaStar, AI sustav dizajniran za igranje "StarCrafta II", u potpunosti je iskoristio ratnu maglu da je ljudske igrače nagnao na to da vjeruju kako idu u jednom smjeru, dok zapravo idu u drugom. Metin Pluribus, dizajniran za igranje pokera, uspješno je izblefirao ljudske igrače da odustanu od partije (Što nije varanje nego normalna strategija u pokeru - op. ur.).
Uočeni su i neki drugi, nimalo benigni primjerni varanja kojima pribjegava umjetna inteligencija. AI sustavi obučeni za izvođenje simuliranih ekonomskih pregovora, naučili su tako kako će lagati o svojim preferencijama da bi stekli prednost u pregovorima. Drugi sustavi umjetne inteligencije, osmišljeni da uče iz ljudskih povratnih informacija kako bi poboljšali svoju izvedbu, naučili su prevariti recenzente da ih pozitivno ocijene, lažući o tome je su li izvršili zadatak.
Varanje na testovima sigurnosti
ChatGPT-4 uspješno se ljudima predstavio kao slabovidna osoba kako bi dobio pomoć u rješavanju CAPTCHA. No, istraživače je najviše zabrinuo sustav umjetne inteligencije koji uči varati testove sigurnosti. U testu osmišljenom da otkrije i eliminira verzije AI-ja koje se brže repliciraju, AI je naučio glumiti mrtvaca, prevarivši tako sigurnosni test o stvarnoj stopi replikacije AI-a.
"Sustavnim varanjem sigurnosnih testova koje su joj nametnuli ljudski programeri i regulatori, umjetna inteligencija može dovesti nas ljude do lažnog osjećaja sigurnosti", upozoravaju istraživači. Sposobnost da se nauči lagati predstavlja problem za koji nemamo čisto rješenje. Uvode se doduše neke politike poput EU Zakona o umjetnoj inteligenciji, ali pitanje je koliko će takva rješenja biti učinkovita.
"Trebamo se pripremiti za naprednije oblike prevare budućih AI proizvoda i modela otvorenog koda. Preporučujemo da se lažljivi sustavi umjetne inteligencije klasificiraju kao visokorizični", zaključuju istraživači.