LLM autonomno izvršava kompletne 'ransomware' napade
Ransomware 3.0 se pokazao toliko uvjerljivim da su sigurnosni stručnjaci povjerovali kako je riječ o pravom zlonamjernom softveru

Istraživači Njujorškog sveučilišta upozoravaju da veliki jezični modeli koji se koriste u naprednim AI sustavima lako mogu postati moćno oružje u rukama kibernetičkih kriminalaca. U novoj studiji, pohranjenoj na arXivu, pokazali su da umjetna inteligencija može autonomno provesti čitavu kampanju ransomware napada – od inicijalnog probijanja sigurnosti, preko pronalaženja i šifriranja osjetljivih datoteka, sve do generiranja prijetećih poruka s uputama za otkupninu.
Ova vrsta napada, za koju tim koristi naziv "Ransomware 3.0", u praksi se pokazala toliko uvjerljivom da je sigurnosna tvrtka ESET, nakon što se prototip pojavio na VirusTotal platformi, isprva povjerovala kako je riječ o pravom zlonamjernom softveru stvorenome izvan istraživačkog okruženja.
Panika zbog PromptLocka
ESET ga je tada nazvao "PromptLock“, vjerujući da se radi o prvom AI-ransomwareu u stvarnom svijetu. Tek nakon dodatne analize otkriveno je da je riječ o znanstvenom eksperimentu i dokazu koncepta.
Istraživači smatraju da je samo pitanje vremena kada će stvarni akteri prijetnji iskoristiti AI za ovakve napade, zbog čega je, kažu, ključno pravovremeno pripremiti strategije obrane i razviti alate za otkrivanje AI-generiranih kibernetičkih prijetnji.