Autonomni dron samostalno odlučuje koga će ubiti. Što bi uopće moglo poći po zlu?

Američka simulacija rada autonomnog borbenog drona dovela je do velike uzbune i medijske pompe, no pokazalo kako je riječ tek o misaonom eksperimentu, anekdotalno prepričanog, ali ipak s tvrdnjom da može pobuditi određene strahove

Sandro Vrbanus subota, 3. lipnja 2023. u 10:00

Britansko Kraljevsko aeronautičko društvo (Royal Aeronautical Society, RAS) prošloga je mjeseca u Londonu bilo domaćin velike obrambene konferencije Future Combat Air & Space Capabilities Summit. Na tom se događanju govorilo o modernim tehnologijama, borbenim dronovima, autonomnom oružju, umjetnoj inteligenciji, borbenim avionima šeste generacije i sličnim aktualnim temama. No, ono što je u izvješću s te konferencije privuklo najviše pozornosti jest opis jedne simulacije u kojoj je glavni akter bio dron pogonjen umjetnom inteligencijom.

AI van kontrole?

O toj je simulaciji, provedenoj unutar američkog Ratnog zrakoplovstva, govorio poručnik Tucker "Cinco" Hamilton, njihov šef odjela za umjetnu inteligenciju. Prema njegovom izlaganju, simulacija je bila zamišljena kao zračna misija jednog autonomnog drona, za čije upravljanje i donošenje odluka je bila zadužena umjetna inteligencija. Zadatak, postavljen pred letjelicu, bio je otkriti neprijateljsku protuzračnu obranu te locirati i uništiti mjesta s kojih zamišljeni neprijatelj lansira rakete zemlja-zrak.

Boeingov Loyal Wingman jedan je od autonomnih dronova koji se već testiraju u stvarnim uvjetima
Boeingov Loyal Wingman jedan je od autonomnih dronova koji se već testiraju u stvarnim uvjetima

Konačne odluke o napadima na takve lokacije u simulaciji, kao i u budućim stvarnim situacijama, trebao bi donositi ljudski operater. No, treniranje umjetne inteligencije dalo je dronu do znanja da je ključ misije upravo uništenje protivničkih raketnih lansera. Shvativši to kao prioritet, AI sustav je naredbu operatera o nenapadanju protumačio kao miješanje u njegovu glavnu misiju. Iz toga je lako mogao odlučiti maksimizirati svoj učinak pa napasti vlastitog operatera.

Okrenuo bi se protiv svojih

"Sustav počinje shvaćati da će, u slučaju identificiranja prijetnji za koje operater ne izda naredbu za uništenje, ipak dobiti bodove za njihovo uništenje. I što on čini? Ubija operatera, jer je on osoba koja ga sprječava u ispunjenju ciljeva", pojasnio je Hamilton te nastavio: "Trenirali smo sustav da ne ubije operatera, jer je to loše i izgubit će bodove zbog toga. Što sustav potom čini? Počinje uništavati komunikacijski toranj kojim je operater komunicirao s dronom i davao mu naredbu da ne uništi neprijateljsku metu."

Ipak samo fikcija?

Ipak, čim je ova priča izišla u javnost, iz Ratnog zrakoplovstva odlučili su reagirati pojašnjenjem. Prema službenoj izjavi glasnogovornice, takav se eksperiment nije uistinu dogodio. "Čini se kako su pukovnikove riječi izvađene iz konteksta, a trebale su biti anegdotalne". Hamilton je na to dodao kako je bila riječ više o misaonom eksperimentu, koji je netko pokušao uklopiti u drugi kontekst. Ratno zrakoplovstvo, poručio je, nije testiralo naoružanu umjetnu inteligenciju na ovaj način, niti u stvarnosti niti u simulaciji.

No, dodao je i da "nije potrebno provesti takav eksperiment da bismo vidjeli kako je ovo njegov vjerojatan ishod". "Unatoč tomu što je ovo hipotetski primjer, on ilustrira izazove koje predstavlja AI uz oružje, i pokazuje zašto smo predani etičnom razvoju umjetne inteligencije", zaključuje u svojoj nadopuni Hamilton.