Microsoft i StopNCII.org udružuju snage protiv širenja osvetničke pornografije
Microsoft je, u suradnji s organizacijom StopNCII.org, pokrenuo inicijativu za borbu protiv neovlaštenog širenja intimnih sadržaja i "deepfake" pornografije, koristeći tehnologiju digitalnih otisaka za identifikaciju i uklanjanje problematičnih slika
Microsoft je, u suradnji s organizacijom StopNCII.org, pokrenuo borbu protiv širenja neovlaštenih intimnih sadržaja (Non-Consensual Intimate Image, NCII) i sintetički generiranih golih slika, često nazivanih "deepfake pornografijom". Stvaranje takvih sadržaja omogućila je napredna tehnologija generativne umjetne inteligencije.
Stvaranje digitalnih otisaka
StopNCII.org je besplatni online alat osmišljen za borbu protiv zlouporabe neovlaštenih intimnih slika, također poznate kao osvetnička pornografija. Pokrenut u prosincu 2021. godine, njime upravlja Revenge Porn Helpline, koji je dio SWGfL-a, međunarodne dobrotvorne organizacije usmjerene na online sigurnost.
Ključni je alat PhotoDNA, razvijen u partnerstvu s Microsoftom i Sveučilištem Dartmouth 2009. godine i koristi se za otkrivanje i omogućavanje uklanjanja sadržaja seksualnog iskorištavanja djece (CSAM) na online platformama. Ažurirana verzija Microsoft PDNA radi uz već ustanovljene procese koje koristi StopNCII.org, omogućujući stvaranje PhotoDNA hasheva od strane osobe koja prijavljuje sadržaj, istovremeno osiguravajući da slike nikada ne napuste korisnikov uređaj. S obzirom da mnoge platforme već imaju integriran PhotoDNA za otkrivanje CSAM sadržaja, integracija PhotoDNA omogućuje StopNCII.org širu implementaciju, povećavajući potencijal za pridruživanje više industrijskih platformi ovoj inicijativi.
Uklonjeno 268.899 deepfake slika
Microsoft je izvijestio da je tijekom pilot programa do kraja kolovoza uklonio 268.899 slika. Ovo predstavlja potpuno drugačiji, proaktivni pristup u odnosu na ranije oslanjanje tvrtke na prijave korisnika. Microsoft je na svom blogu priznao da prijave korisnika nisu bile dovoljne za rješavanje problema u punom opsegu.
Problem neovlaštenih intimnih sadržaja postao je sve složeniji s pojavom deepfakeova generiranih umjetnom inteligencijom. Studija DeepTracea iz 2019. godine otkrila je da je 96% deepfake videozapisa na internetu bilo pornografskog karaktera, pri čemu su gotovo svi uključivali neovlaštenu uporabu ženskih likova. Problem se proteže i na maloljetne žrtve, s pojavom "stranica za svlačenje" koje stvaraju probleme za srednjoškolce diljem Sjedinjenih Država.
Nedefinirano pravno okruženje u SAD
Iako je Microsoftova inicijativa korak naprijed, pravno okruženje oko deepfakeova generiranih umjetnom inteligencijom ostaje nedefinirano. Sjedinjene Države nemaju sveobuhvatno savezno zakonodavstvo koje bi se specifično bavilo ovim problemom, ostavljajući pojedinim državama da razviju vlastite zakone. Prema praćenju magazina Wired, 23 američke države donijele su zakone koji se bave neovlaštenim deepfakeovima, dok je devet odbacilo prijedloge.
U nedostatku savezne regulacije, neke lokalne vlasti poduzimaju mjere. Tužitelji u San Franciscu nedavno su najavili tužbu s ciljem gašenja 16 najistaknutijih "stranica za svlačenje".
Google ne sudjeluje sa StopNCII-om
Google, čija tražilica dominira Internetom, suočio se s kritikama zbog nepartnerstva sa StopNCII-om, unatoč tome što nudi vlastite alate za prijavu i uklanjanje eksplicitnih slika. Istraga Wireda otkrila je da su od 2020. godine korisnici Googlea samo u Južnoj Koreji prijavili 170.000 poveznica na pretraživanju i YouTubeu zbog neželjenog seksualnog sadržaja.