Globalne implikacije suspenzije Metine AI politike privatnosti u Brazilu
Odluka brazilskog Nacionalnog tijela za zaštitu podataka (ANPD) da suspendira novu Metinu politiku privatnosti, koja se odnosi na korištenje osobnih podataka za obuku umjetne inteligencije, ima dalekosežne implikacije, ne samo za Brazil, već i za globalni razvoj i regulaciju umjetne inteligencije.

Odluka Nacionalnog tijela za zaštitu podataka (ANPD) da suspendira novu Metinu politiku privatnosti, koja se odnosi na korištenje osobnih podataka za obuku umjetne inteligencije, izazvala je burne reakcije i otvorila Pandorinu kutiju oko pitanja o privatnosti podataka u eri AI tehnologije. Ovaj slučaj će vjerojatno imati dalekosežne posljedice na budućnost AI regulacije, ne samo u Brazilu i Europskoj uniji, već i diljem svijeta. Ovo je poziv kreatorima korporativne politike i društvu u cjelini da se suoče s izazovima koje donosi AI era. U pitanju nije samo tehnološki napredak, već i bojazan za temeljne vrijednosti privatnosti, transparentnosti i etike.
Srž kontroverze
Meta, matična kompanija Facebooka i Instagrama, 26. lipnja ove godine predstavila je plan korištenja javno dostupnih objava s njihovih platformi, uključujući tekstove, slike, pa čak i komentare, za obuku svojih generativnih AI modela. Cilj je jasan: unaprijediti AI tehnologiju kako bi bolje razumjela i odgovarala na lokalne jezike, geografiju i kulturne reference. Na primjeru Brazila, AI model obučen na brazilskim podacima mogao bi razumjeti lokalni slang poput "tamo junto" (zajedno smo u ovome) ili "rolê" (druženje), prepoznati specifične brazilske kulturne reference, naravno o čemu drugom nego karnevalu ili nogometu, te generirati sadržaj relevantniji za brazilsku publiku.
Međutim, ANPD je brzo reagirao suspenzijom ove politike, navodeći da je "neposredni rizik od ozbiljne i nepopravljive štete za temeljna prava pogođenih pojedinaca". Agencija je iznijela nekoliko ključnih bojaznosti koje su odjeknule daleko izvan granica Brazila.
Ključne bojaznosti
Prvo, nedostatak transparentnosti i informiranog pristanka. Meta nije adekvatno informirala brazilske korisnike o promjenama u svojoj politici privatnosti. Umjesto jasnog i sažetog objašnjenja promjena, Meta ih je uključila u dug i složen pravni dokument, otežavajući korisnicima da razumiju utjecaj na njihove privatnosti. Ovo postavlja pitanje jesu li korisnici zaista dali informirani pristanak za korištenje njihovih podataka u svrhe koje možda nisu u potpunosti razumjeli.
Drugo, nedostatak kontrole. Objavljena nova pravila su se odnosila na sve Meta platforme, čak i one koje korisnici ne koriste, potencijalno, mogu se uključiti podaci onih koji nisu na Facebooku ili Instagramu, poput podataka prikupljenih putem preglednika ili putem aplikacija trećih strana koje koriste Metine alate. Ovo je izazvalo zabrinutost zbog mogućnosti da se njihovi podaci, za koje nisu ni znali da se prikupljaju, koriste iako ih nisu odobrili.
Treće, potencijalna zloupotreba i diskriminacija. Osobni podaci iz javnih objava mogli bi se zloupotrijebiti ne samo za ciljano oglašavanje, već i za sofisticiranije oblike manipulacije, poput stvaranja lažnih profila, širenja dezinformacija ili čak diskriminacije na temelju osobnih karakteristika izvedenih iz podataka.
ANPD-ove mjere, Metin odgovor
ANPD je naredio Meti da ukloni sporne dijelove iz objavljenih pravila, da objavi javnu izjavu o suspenziji, informira korisnike o promjenama, uskladi svoja djelovanja s brazilskim zakonima o privatnosti podataka te plati dnevnu kaznu od oko 8.800 dolara u slučaju nepoštivanja.
Meta je izrazila razočaranje odlukom, tvrdeći da se tako sprječavaju inovacije i odgađa koristi od AI za brazilske korisnike. Naglasili su da je njihov pristup transparentniji od mnogih konkurenata i da je politika u skladu s brazilskim zakonima o privatnosti. Međutim, ovaj argument nije uvjerio ANPD niti druge regulatorne agencije diljem svijeta.
Globalni odjek
Ovaj slučaj odjeknuo je globalno, i podudara se s Europskom unijom koja je također izvršila pritisak na Metu da obustavi planove korištenja javnih podataka za obuku AI modela. Europski centar za digitalna prava zagovara strože mjere pristanka za korištenje podataka u AI svrhe, ističući da trenutačni proces “opt-out", dobrovojno odustajanje, nije dovoljan.
Etičke debate i budućnost AI regulacije
Slučaj ANPD-a i Mete otvorio je Pandorinu kutiju etičkih debata o razvoju AI. Trebaju li kompanije imati pravo koristiti osobne podatke, čak i one javno dostupne, za obuku AI modela bez jasnog i izričitog pristanka? Koje su potencijalne štete koje bi se mogle nanijeti privatnosti, slobodi govora i društvenoj pravdi ako se ovim podacima ne upravlja odgovorno?