Umjetna inteligencija

Najgori AI scenariji: što će nam Terminatori kad imamo clickbait i deepfake

Mladen Smrekar četvrtak, 27. siječnja 2022. u 06:00

Umjetna inteligencija ne mora biti razumna da bi nas sve ubila. Postoji mnogo drugih scenarija, upozorava Malcolm Murdock, inženjer strojnog učenja i autor romana "The Quantum Price"

Porastom količine nadzora i praćenja podataka ulazimo u opasan i neistražen teritorij s teško shvatljivim potencijalnim implikacijama. Stručnjaci za umjetnu inteligenciju iznijeli su za IEEE Spectrum šest najgorih scenarija, jednako zastrašujućih i pritom daleko vjerojatnijih od onih koji se prikazuju u holivudskim SF filmovima. Želimo li ih spriječiti, kažu oni, moramo se ozbiljno pozabaviti neželjenim posljedicama uvođenja umjetne inteligencije u naše živote. 

Deepfake istine

"AI sustavi već su sada sposobni generirati dezinformacije u velikim razmjerima", upozorava Andrew Lohn, viši stručni suradnik u Centru za sigurnost i nove tehnologije Sveučilišta Georgetown (CSET). "Proizvodnjom veće količine i raznovrsnosti lažnih poruka, ovi sustavi mogu prikriti njihovu pravu prirodu."

AI sustavi generiraju dezinformacije u velikim razmjerima
AI sustavi generiraju dezinformacije u velikim razmjerima

I doista, gomilanje deepfake sadržaja - lažnih slika, videa, zvuka i teksta generiranih naprednim alatima za strojno učenje – može navesti donositelje odluka o nacionalnoj sigurnosti da poduzmu akciju u stvarnom svijetu na temelju lažnih informacija. I obratno; svijet o postojanju deepfake sadržaja može lidere nagnati da djeluju sa zakašnjenjem. U oba slučaja to može izazvati velike krize ili rat.

Opasna utrka

Kada je riječ o umjetnoj inteligenciji i nacionalnoj sigurnosti, brzina je cilj, ali i problem. Zemlje koje prve razviju vojne aplikacije imat će stratešku prednost, ali pod koju cijenu?

Ljudi ne smiju doći u iskušenje da zbog brzine odlučivanja zapovjedne odluke i kontrolu prepuste strojevima
Ljudi ne smiju doći u iskušenje da zbog brzine odlučivanja zapovjedne odluke i kontrolu prepuste strojevima

Vincent Boulanin, viši istraživač na Stockholmskom međunarodnom institutu za istraživanje mira (SIPRI), upozorava da se velike katastrofe mogu dogoditi ako velike sile krenu prečacem. Opasno je dati prednost brzini ispred sigurnosti, testiranja ili ljudskog nadzora.


Ljudi ne smiju doći u iskušenje da zbog brzine odlučivanja zapovjedne odluke i kontrolu prepuste strojevima i uklone ljudski nadzor nad modelima strojnog učenja koje ne razumijemo u potpunosti. U takvom scenariju, automatizirano lansiranje proturaketnih obrambenih sustava, pokrenuto bez ljudske dozvole, moglo bi dovesti do nuklearnog rata.


Eksperti za AI: Andrew Lohn, Helen Toner, Malcolm Murdock, Michael C. Horowitz, Vincent Boulanin i Lydia Kostopoulos
Eksperti za AI: Andrew Lohn, Helen Toner, Malcolm Murdock, Michael C. Horowitz, Vincent Boulanin i Lydia Kostopoulos

Kraj privatnosti i slobodne volje

Svakom digitalnom akcijom proizvodimo nove podatke – e-poštu, tekstove, preuzimanja, kupnje, objave, selfije i GPS lokacije. Dopuštajući tvrtkama i vladama neograničen pristup ovim podacima, predajemo im i alate za nadzor.

Uz dodatak prepoznavanja lica, biometrije, genomskih podataka i prediktivne analize s AI-om, Lohn iz CSET-a strahuje da "ulazimo u opasan i neistražen teritorij s porastom nadzora i praćenja putem podataka, ne razumijevajući potencijalne implikacije."

S porastom nadzora putem podataka, ulazimo u opasan i neistražen teritorij
S porastom nadzora putem podataka, ulazimo u opasan i neistražen teritorij

Moć jednom prikupljenih i analiziranih podataka doista je ogromna. Danas sustavi s AI-om predviđaju što ćemo kupiti, kako ćemo se zabavljati i koje ćemo linkove kliknuti. A kad nas te platforme upoznaju bolje nego što poznajemo sami sebe, nećemo ni primijetiti da nam je oduzeta našu slobodnu volju i da smo podvrgnuti kontroli vanjskih sila, kaže Michael C. Horowitz, direktor Perry World Housea na Sveučilištu Pennsylvania.

Ljudska Skinnerova kutija

Korisnici društvenih mreža postali su štakori u laboratorijskim eksperimentima; živimo u ljudskim Skinnerovim kutijama, zalijepljeni za ekrane svojih pametnih telefona, prisiljeni žrtvovati više dragocjenog vremena i pažnje platformama koje profitiraju na naš račun.

Skinnerova kutija
Skinnerova kutija

"Algoritmi su optimizirani kako bi korisnike zadržali na platformi što je dulje moguće", kaže Helen Toner iz CSET-a. Nudeći nagrade u obliku lajkova, komentara i praćenja, algoritmi stvaraju kratki spoj u načinu na koji naš mozak radi.

Kako bi povećale zaradu od oglašavanja, tvrtke nam odvlače pažnju od naših poslova, obitelji i prijatelja, odgovornosti, pa čak i naših hobija. Da stvar bude još gora, zbog sadržaja se često osjećamo jadno i gore nego prije. Toner upozorava da "što više vremena provodimo na ovim platformama, manje vremena provodimo u potrazi za pozitivnim, produktivnim i ispunjenim životima."

Teror AI dizajna

Svaki dan sve više svog svakodnevnog života prepuštamo strojevima s AI-om. A i oni su pristrani poput ljudi koji ih osmišljavaju. Zbog toga, upozorava Lydia Kostopoulos, potpredsjednica tvrtke KnowBe4, mnogi AI sustavi ne uzimaju u obzir različita iskustva i karakteristike različitih ljudi. A budući da AI rješava probleme temeljene na pristranim perspektivama i podacima, takvi sustavi proizvode razinu usklađenosti koja ne postoji u ljudskom društvu.

Umjetna inteligencija nema razumijevanja za ljude koji se ne uklapaju u prosjeke
Umjetna inteligencija nema razumijevanja za ljude koji se ne uklapaju u prosjeke

AI se pretvara u kafkijanskog vratara koji uskraćuje pristup korisničkoj službi, poslovima, zdravstvenoj skrbi i još mnogo čemu ljudima koji se ne uklapaju u prosjeke. Prepuštanje odluka umjetnoj inteligenciji, unatoč dobrim namjerama, na kraju dodatno sputava ljude umjesto da ih oslobađa svakodnevnih briga. To pak može izazvati najgore rasističke i seksističke prakse i duboko pogrešne i pristrane ishode izricanja kazni.

Pretjeran strah od napretka

Umjetna inteligencija pokreće se skupovima podataka, naprednim statističkim modelima i prediktivnim algoritmima pa je proces izrade strojne inteligencije u konačnici usredotočen na matematiku. 

Linearna algebra može učiniti ludo moćne stvari ako nismo oprezni, kaže Murdock. Ali što ako se ljudi toliko boje umjetne inteligencije da je vlade reguliraju na načine koji čovječanstvu oduzimaju mnoge njene prednosti? 

Pitanje je što je gore, razvoj bez regulacije ili zabrane kojima se situacija želi pošto što kontrolirati. Strah od silne moći ove ogromne tehnologije mogao bi nas spriječiti da je iskoristimo za stvarno dobro koje može učiniti u svijetu, slažu se eksperti.