Rizici umjetne inteligencije u dizajnu oružja budućnosti

Na Međunarodnoj konferenciji o strojnom učenju predstavljen je dokument koji govori o opasnostima razvoja autonomnog oružja pokretanog umjetnom inteligencijom

Mladen Smrekar četvrtak, 15. kolovoza 2024. u 17:15
Iako je potrebno još puno posla za izradu oružja pokretanog umjetnom inteligencijom, većina osnovnih algoritama već je predložena ili su u središtu velikih akademskih i industrijskih istraživanja 📷 Pixlr
Iako je potrebno još puno posla za izradu oružja pokretanog umjetnom inteligencijom, većina osnovnih algoritama već je predložena ili su u središtu velikih akademskih i industrijskih istraživanja Pixlr

Desetljećima je vojska koristila autonomno oružje poput mina, torpeda i toplinski vođenih projektila koji djeluju na temelju jednostavne reaktivne povratne informacije bez ljudske kontrole. Ubojiti vojni arsenal sad se nadopunjuje i autonomnim oružjem koje pokreće umjetna inteligencija. Ulazimo u novu eru u ratovanju u kojoj takva oružja predstavljaju konkretnu prijetnju znanstvenom napretku i temeljnim istraživanjima, upozorava Kanaka Rajan, izvanredna profesorica neurobiologije na Institutu Blavatnik pri Harvardovoj medicinskoj školi

Tri glavna rizika

Oružja pokretana umjetnom inteligencijom mogla bi dovesti do geopolitičke nestabilnosti, a njihov razvoj mogao bi utjecati na nevojna istraživanja, u akademskoj zajednici i industriji, sukus je dokumenta koji su Rajan i njene kolege predstavili na Međunarodnoj konferenciji o strojnom učenju 2024. Oni ne staju samo na upozorenjima nego nude i prijedloge kako ublažiti rizike od nekontroliranog i netransparentnog razvoja i implementacije autonomnih oružanih sustava.

Lokacije ratišta na kojima se već koriste autonomna oružja koje pokreće umjetna inteligencija  📷 Riley Simmons-Edler, Ryan Paul Badman, Shayne Longpre, Kanaka Rajan
Lokacije ratišta na kojima se već koriste autonomna oružja koje pokreće umjetna inteligencija Riley Simmons-Edler, Ryan Paul Badman, Shayne Longpre, Kanaka Rajan

Harvardovi znanstvenici posebnu su pažnju posvetili načinu na koji ovo oružje može olakšati zemljama da se uključe u sukobe, kako nevojna znanstvena istraživanja AI mogu biti cenzurirana ili uključena u potporu razvoju ovog oružja te kako vojske mogu koristiti autonomnu tehnologiju pokretanu umjetnom inteligencijom za smanjenje ili preusmjeravanje ljudske odgovornosti u donošenju odluka.

Ponavljanje povijesti

"Velik dio trenutnog razvoja oružja pokretanog umjetnom inteligencijom ima za cilj ukloniti ljudske vojnike od opasnosti, što je samo po sebi humana stvar. Međutim, ako malo vojnika pogine u ofenzivnom ratovanju, to slabi povezanost između ratnog djelovanja i ljudske cijene", kaže Rajan. "Postaje politički lakše započeti ratove, što zauzvrat može dovesti do više smrti i sveukupnog razaranja." 

S razvojem umjetne inteligencije ponavlja se ono što smo već doživjeli s istraživanjem nuklearne fizike i raketnih tehnologija u vrijeme Hladnog rata, kad su se znanstvenici suočili s ograničenjima putovanja, cenzurom publikacija i sigurnosnim provjerama, podsjećaju autori istraživanja. 

Prepuštanje odluka strojevima

"Kako autonomna tehnologija pokretana umjetnom inteligencijom postaje središnja za planiranje nacionalne obrane u cijelom svijetu, slična ograničenja možemo očekivati i u nevojnim istraživanjima. A to bi omelo osnovno istraživanje AI, vrijedne civilne primjene u zdravstvu, znanstvena istraživanja i međunarodnu suradnju", kaže Rajan koja upozorava i na nejasan stupanj autonomije i ljudskog nadzora u sustavima oružja; tko na kraju donosi odluke i tko i kada provjerava proces donošenja tih odluka.

Kanaka Rajan, izvanredna profesorica neurobiologije na Institutu Blavatnik pri Medicinskoj školi Harvard i jedna od autorica dokumenta povećenog opasnostima razvoja autonomnog oružja koje pokreće AI 📷 Harvard
Kanaka Rajan, izvanredna profesorica neurobiologije na Institutu Blavatnik pri Medicinskoj školi Harvard i jedna od autorica dokumenta povećenog opasnostima razvoja autonomnog oružja koje pokreće AI Harvard

Ti sustavi postaju sve složeniji i moćniji, a kako vrijeme reakcije u ratu mora biti brže, možemo očekivati da će se sve više odluka prepuštati oružju. S druge strane, postojanje "čovjeka u petlji" u autonomnom oružju koje pokreće umjetna inteligencija moglo bi uljuljati istraživače u pomisao da je sustav etičan prema vojnim standardima, mada on zapravo ne uključuje ljude u donošenje odluka, upozorava Rajan.

Zabrana nije realna

"Iako je potrebno još puno posla za izradu oružja pokretanog umjetnom inteligencijom, većina osnovnih algoritama već je predložena ili su u središtu velikih akademskih i industrijskih istraživanja motiviranih nevojnim primjenama poput samovozećih vozila", kaže Rajan koja se zalaže za veću odgovornost znanstvenika i istraživača u etičkom vođenju primjene ovih tehnologija.

"Neki znanstvenici pozvali su na potpunu zabranu vojne umjetne inteligencije. To je moralno idealno, ali nije realno; umjetna inteligencija je previše korisna za vojne svrhe da bi se postigao međunarodni konsenzus potreban za uspostavljanje ili provedbu takve zabrane", kaže Rajan koja smatra da bi trebalo razvijati oružje pokretanog umjetnom inteligencijom koje poboljšava, a ne zamjenjuje ljudske vojnike. "Treba zabraniti i regulirati najteže klase oružja umjetne inteligencije i što je prije moguće postaviti granice koje se ne smiju prelaziti."