AntiFake: alat koji ljudski glas štiti od 'deepfakea'
AntiFake koristi kontradiktorne tehnike kako bi spriječio sintezu lažnog govora, otežavajući AI alatima čitanje potrebnih karakteristika iz glasovnih snimaka
Ubrzani napredak generativne umjetne inteligencije potaknuo je razvoj realistične sinteze govora. Iako ova tehnologija ima potencijal poboljšati živote putem personaliziranih glasovnih pomoćnika i komunikacijskih alata, ona je dovela i do pojave deepfakeova u kojima se sintetizirani govor može zloupotrijebiti za prevaru ljudi i strojeva.
Proaktivan stav
Kao odgovor na ovu prijetnju istraživači Laboratorija za računalnu sigurnost i privatnost na Washingtonovom sveučilištu u St. Louisu razvili su alat nazvan AntiFake, novi obrambeni mehanizam osmišljen kako bi spriječio neovlaštenu sintezu govora prije nego što se ona dogodi. AntiFake je upravo predstavljen na konferenciji o računalnoj i komunikacijskoj sigurnosti ACM CCS 2023 koja se ovaj tjedan održava u Kopenhagenu.
Za razliku od tradicionalnih metoda detekcije deepfakea koje se koriste za procjenu i otkrivanje sintetičkog zvuka kao alata za ublažavanje napada, AntiFake zauzima proaktivan stav. On koristi kontradiktorne tehnike kako bi spriječio sintezu lažnog govora, otežavajući AI alatima čitanje potrebnih karakteristika iz glasovnih snimaka. Kod je besplatno dostupan korisnicima.
Impresivna stopa zaštite
"AntiFake otežava korištenje objavljenih glasovnih podataka za sintetiziranje naših glasova i lažno predstavljanje", objašnjava glavni autor Ning Zhang.
"Koristi tehniku suparničkog strojnog učenja (adversarial AI) koja je izvorno bila dio kutije alata kibernetičkih kriminalaca, ali sad je mi koristimo za obranu od njih. Malo zabrljamo snimljeni audio signal, iskrivimo ga ili poremetimo tek toliko da i dalje zvuči ispravno ljudskim slušateljima, ali umjetnoj inteligenciji zvuči potpuno drukčije."
Nema prepreka
Kako bi osigurali da se AntiFake može suprotstaviti nepoznatim modelima sinteze, istraživači su izradili alat koji se može generalizirati. Na testovima pet sintetizatora govora AntiFake je postigao stopu zaštite veću od 95%, a njegovu su upotrebljivost potvrdili i ljudi različitih socijalnih skupina.
Trenutačno AntiFake može zaštititi kratke isječke govora, ciljajući na najčešći tip oponašanja glasa. Ali, kaže Zhang, ne postoje prepreke da se ovaj alat ne bi koristio i za zaštitu dužih snimaka, pa čak i glazbe. Alat je inspiriran Glazeom, sličnim alatom Sveučilišta u Chicagu čiji je cilj zaštititi vizualne umjetnike od toga da se njihova djela "posuđuju" za generativne AI modele.
Druga rješenja
Postoje dakako i druga rješenja, poput detekcije dubokih lažnih lažnih poruka. Neke tehnologije otkrivanja deepfakea ugrađuju tako digitalne "vodene žigove" u video i audio kako bi korisnici mogli prepoznati jesu li napravljeni pomoću umjetne inteligencije. Primjeri uključuju Googleov SynthID i Metin Stable Signature.
Drugi, koje su razvile tvrtke poput Pindropa i Veridasa, mogu pak utvrditi je li nešto lažno ispitivanjem sitnih detalja, poput sinkronizacije zvukova riječi s ustima govornika.
Iako ne mogu predvidjeti sljedeći korak u razvoju glasovne tehnologije umjetne inteligencije, istraživači koji su napravili AntiFake vjeruju da će njihova strategija okretanja protivničkih tehnika protiv njih i dalje biti učinkovita.