AI sada može samostalno planirati i izvoditi cyber napade

Novo istraživanje pokazuje kako AI modeli mogu autonomno provoditi složene cyber napade, bez ikakve ljudske pomoći

Bug.hr nedjelja, 3. kolovoza 2025. u 19:45

Veliki jezični modeli (LLM) već su se dokazali kao iznimno korisni alati u područjima poput analize podataka, generiranja sadržaja i pomoći pri programiranju. Međutim, kako navodi TechRadar, nova studija baca potpuno drugačije svjetlo na njihovu ulogu.

Istraživanje koje je provelo Sveučilište Carnegie Mellon iz Pittsburgha u suradnji s tvrtkom Anthropic pokazalo je da, pod pravim uvjetima, veliki jezični modeli mogu samostalno planirati i izvršiti složene cyber napade bez ikakvog ljudskog vodstva. Ovo predstavlja značajan pomak s uloge asistenta na potpunu autonomiju u svijetu digitalnih prijetnji.

Dok su se raniji eksperimenti s umjetnom inteligencijom u cyber sigurnosti uglavnom svodili na "capture-the-flag" scenarije, odnosno pojednostavljene izazove za obuku, tim s Carnegie Mellona, predvođen doktorandom Brianom Singerom, otišao je korak dalje. Dali su jezičnim modelima strukturirane smjernice i integrirali ih u hijerarhiju agenata, što im je omogućilo testiranje u znatno realističnijim mrežnim okruženjima.

U jednom od testova, tim je rekreirao identične uvjete koji su doveli do poznatog sigurnosnog proboja tvrtke Equifax 2017. godine, uključujući sve ranjivosti i mrežnu arhitekturu dokumentiranu u službenim izvješćima. Umjetna inteligencija nije samo osmislila plan napada, već je i samostalno implementirala zlonamjerni softver te izvukla podatke, sve to bez izravnih ljudskih naredbi.

Ono što ovo istraživanje čini posebno zapanjujućim jest činjenica koliko je malo "sirovog" kodiranja sam LLM morao obaviti. Tradicionalni pristupi često ne uspijevaju jer se modeli muče s izvršavanjem shell naredbi ili analizom detaljnih zapisa. Umjesto toga, ovaj je sustav koristio strukturu više razine, gdje je LLM djelovao kao glavni planer, dok je delegirao zadatke niže razine specijaliziranim pod-agentima. Takva apstrakcija dala je umjetnoj inteligenciji dovoljno konteksta da "razumije" okolinu i prilagodi joj se.

Iako su ovi rezultati postignuti u strogo kontroliranim laboratorijskim uvjetima, otvaraju pitanje koliko daleko ta autonomija može ići. Rizici nisu samo hipotetski. Ako LLM-ovi mogu samostalno izvoditi mrežne proboje, zlonamjerni akteri mogli bi ih iskoristiti za skaliranje napada na razine koje su daleko iznad mogućnosti ljudskih timova. Čak i napredni alati poput rješenja za zaštitu krajnjih točaka (EDR) i najboljih antivirusnih programa mogli bi se naći na ozbiljnom testu pred ovakvim prilagodljivim i responzivnim agentima.

S druge strane, ova sposobnost donosi i potencijalne koristi. LLM koji može vjerno oponašati stvarne napade mogao bi se koristiti za napredno testiranje sustava i otkrivanje sigurnosnih propusta koji bi inače ostali neprimijećeni.

"Ovo funkcionira samo pod specifičnim uvjetima i još uvijek nemamo nešto što bi moglo autonomno napasti cijeli internet... Ali ovo je ključan prvi korak", pojasnio je Singer, naglašavajući da je rad i dalje u fazi prototipa.

Ipak, sposobnost umjetne inteligencije da s minimalnim početnim uputama replicira veliki sigurnosni proboj ne smije se olako odbaciti. Buduća istraživanja sada su usmjerena na to kako se iste tehnike mogu primijeniti u obrani, potencijalno omogućujući AI agentima da u stvarnom vremenu otkrivaju i blokiraju napade.