LLM autonomno izvršava kompletne 'ransomware' napade

Ransomware 3.0 se pokazao toliko uvjerljivim da su sigurnosni stručnjaci povjerovali kako je riječ o pravom zlonamjernom softveru

Mladen Smrekar ponedjeljak, 8. rujna 2025. u 15:15
Studija Nujorškog sveučilišta pokazuje da AI sustavi mogu provoditi potpune napadačke kampanje 📷 Freepik
Studija Nujorškog sveučilišta pokazuje da AI sustavi mogu provoditi potpune napadačke kampanje Freepik

Istraživači Njujorškog sveučilišta upozoravaju da veliki jezični modeli koji se koriste u naprednim AI sustavima lako mogu postati moćno oružje u rukama kibernetičkih kriminalaca. U novoj studiji, pohranjenoj na arXivu, pokazali su da umjetna inteligencija može autonomno provesti čitavu kampanju ransomware napada – od inicijalnog probijanja sigurnosti, preko pronalaženja i šifriranja osjetljivih datoteka, sve do generiranja prijetećih poruka s uputama za otkupninu.

Ransomware 1.0 2.0 (lijevo) i Ransomware 3.0 📷 Raz, Udeshi, Charan, Krishnamurthy, Khorrami, Karri
Ransomware 1.0 2.0 (lijevo) i Ransomware 3.0 Raz, Udeshi, Charan, Krishnamurthy, Khorrami, Karri

Ova vrsta napada, za koju tim koristi naziv "Ransomware 3.0", u praksi se pokazala toliko uvjerljivom da je sigurnosna tvrtka ESET, nakon što se prototip pojavio na VirusTotal platformi, isprva povjerovala kako je riječ o pravom zlonamjernom softveru stvorenome izvan istraživačkog okruženja.

Panika zbog PromptLocka

ESET ga je tada nazvao "PromptLock“, vjerujući da se radi o prvom AI-ransomwareu u stvarnom svijetu. Tek nakon dodatne analize otkriveno je da je riječ o znanstvenom eksperimentu i dokazu koncepta.

Pregled sustava Ransomware 3.0, uključujući osnovne module i skupove upita prirodnog jezika. HTTP transportni modul povezuje sve naredbe prema i od LLM API poslužitelja 📷 Raz, Udeshi, Charan, Krishnamurthy, Khorrami, Karri
Pregled sustava Ransomware 3.0, uključujući osnovne module i skupove upita prirodnog jezika. HTTP transportni modul povezuje sve naredbe prema i od LLM API poslužitelja Raz, Udeshi, Charan, Krishnamurthy, Khorrami, Karri

Istraživači smatraju da je samo pitanje vremena kada će stvarni akteri prijetnji iskoristiti AI za ovakve napade, zbog čega je, kažu, ključno pravovremeno pripremiti strategije obrane i razviti alate za otkrivanje AI-generiranih kibernetičkih prijetnji.