Predviđao je da će AI uništiti čovječanstvo do 2027., no sad se predomislio

Bivši zaposlenik OpenAI-ja, Daniel Kokotajlo, pomaknuo je svoje predviđene rokove za postizanje superinteligencije i opasnih posljedica, uviđajući sporiji napredak tehnologije od prvotno predviđenog

Sandro Vrbanus utorak, 6. siječnja 2026. u 22:02

Daniel Kokotajlo, bivši stručnjak iz kompanije OpenAI, službeno je revidirao svoju raniju prognozu poznatu kao "AI 2027". Prema novim procjenama, razvoj sustava umjetne inteligencije koji bi bili sposobni za potpuno autonomno programiranje, a time i ubrzanje vlastitog puta prema superinteligenciji i možda čak i uništenje čovječanstva, trajat će znatno dulje nego što je prvotno najavljeno.

AI uništenje se više ne predviđa

Njegov scenarij iz travnja, koji je predviđao nekontrolirani razvoj i potencijalno uništenje čovječanstva, izazvao je brojne polemike u globalnoj tehnološkoj zajednici. Dok je originalni plan predviđao pojavu superinteligencije već do 2027. godine, Kokotajlo i njegov tim sada su tu granicu pomaknuli na početak 2030-ih, no nesumnjivo je da će i takva procjena podijeliti javnost.

Izvorni scenarij "AI 2027" snažno se oslanjao na koncept "eksplozije inteligencije", procesa u kojem AI agenti automatiziraju vlastito istraživanje i razvoj te stvaraju sve pametnije verzije sebe. Taj je proces, u najcrnjim predviđanjima, trebao dovesti do eliminacije ljudi radi oslobađanja resursa za solarne panele i podatkovne centre. Ipak, realnost razvoja pokazuje sporiji tempo. Sam Kokotajlo u objavi na platformi X sada je priznao da se stvari odvijaju sporije nego što je bilo predviđeno u njegovom izvornom scenariju.

Glavni razlog za ovu promjenu stava je uviđanje da su sustavi umjetne inteligencije, unatoč velikim skokovima, i dalje neujednačeni u svojim performansama. Nova predviđanja postavljaju 2034. godinu kao novi horizont za pojavu superinteligencije, dok se konkretne procjene o potencijalnim katastrofalnim posljedicama po čovječanstvo u ažuriranom dokumentu više ne navode.

Suočavanje sa stvarnošću

Kritičari i stručnjaci za upravljanje rizicima, poput Malcolma Murrayja, ističu kako su mnogi analitičari tijekom protekle godine počeli pomicati svoje rokove. Murray naglašava da bi za ostvarenje scenarija poput onoga iz 2027. godine, umjetna inteligencija trebala posjedovati znatno više praktičnih vještina primjenjivih u složenom stvarnom svijetu. Postoji sve jasnija spoznaja o "tromosti stvarnog svijeta" koja će neizbježno usporiti potpune društvene promjene potaknute tehnologijom.

Istodobno se propituje i sama smislenost termina AGI (opća umjetna inteligencija). Henry Papadatos, izvršni direktor neprofitne organizacije SaferAI, navodi da je taj pojam imao više smisla dok su AI sustavi bili usko specijalizirani, primjerice za šah. Danas, kada su sustavi već postali široko primjenjivi, granica onoga što AGI predstavlja postaje zamagljenija, što dodatno otežava precizno prognoziranje budućih prekretnica.