Nova era 'vishinga': glasovne prevare u realnom vremenu
Nova generacija AI alata omogućuje iznimno uvjerljivo lažno predstavljanje glasom u telefonskim pozivima, bez čekanja i bez komplicirane opreme
Tvrtka za kibernetičku sigurnost NCC Group demonstrirala je deepfake glasa u stvarnom vremenu: novi alat uz pomoć umjetne inteligencije omogućava praktički trenutnu lažnu glasovnu komunikaciju, a napadačima je za izradu uvjerljivog klona glasa mete dovoljno nekoliko minuta originalnih snimki.

U stvarnim testovima napadači su uspješno oponašali identitet ciljane osobe bez vidljivih odgoda, koristeći open-source softver i prijenosno računalo s grafičkom karticom NVIDIA RTX A1000 s 4096 MiB memorije i 2048 CUDA jezgri. Takav je sustav, opisuju u blogu, bio sposoban pokrenuti umjetni glas pritiskom na gumb, a sve se odvijalo na internetskoj stranici, bez potrebe za kompliciranim postavkama ili skupim računalima.
Dovoljno je nekoliko minuta...
Za stvaranje deepfakea dovoljna je prosječna kvaliteta ulaznog zvuka, što znači da sofisticirane napade mogu izvoditi praktično svi korisnici običnih mikrofona iz prijenosnih računala, tableta ili mobitela. Testiranja su pokazala da žrtve najčešće nisu primijetile prevaru; gotovo svaki pokušaj telefonske lažne identifikacije bio je uspješan.
Ova demonstracija označava početak nove ere vishinga, glasovnih prevara kod kojih lažno predstavljanje u stvarnom vremenu postaje masovno dostupno. Sada je dovoljno poznavati osobu i imati nekoliko minuta njezina govora da bi napad bio uvjerljivo izveden. Obranu, kažu, dodatno otežava činjenica što se napad obavlja bez primjetne latencije, što drastično smanjuje mogućnost prepoznavanja lažnog glasa.