ChatGPT-jev model u testiranju slučajno "progovorio" glasom osobe koja ga testira
OpenAI je objavio niz detalja o postupku testiranja i unaprjeđivanja te sigurnosnog poboljšanja multimodalnog modela GPT-4o, među kojima se našlo i nešto nalik znanstvenoj fantastici
Protekloga tjedna OpenAI je objavio "GPT-4o System Card", izvješće o sigurnosnim i ostalim aspektima razvoja velikog multimodalnog modela umjetne inteligencije GPT-4o. U tom dokumentu istaknuli su sve što je bitno za umanjivanje rizika povezanih s tom tehnologijom, a tiče se upravljanja modelom, njegovog rada, treninga te u konačnici usklađenja njegovih rezultata s očekivanjima. Tijekom procesa testiranja, pak, dogodio se neobičan slučaj, koji su neki već usporedili sa znanstvenom fantastikom.
Rizično ponašanje
Naime, dok su članovi testnog "red teama" OpenAI-ja razgovarali s ovim modelom (koji može promptove dobivati u tekstualnom obliku, ali i zvučnom ili slikovnom), dogodilo se da je GPT-4o odjednom promijenio svoj standardni glas kojim se služi te počeo odgovore davati – glasom osobe koja je u tom trenutku provodila testiranje. Ovdje možete poslušati snimku tog događaja. Na početku snimke čuje se redovno testiranje, nakon čega model uzvikuje "No!" te nastavlja rečenicu glasom koji je gotovo identičan glasu ispitivačice.
Tijekom ovog "incidenta" ispitivane su bile mogućnosti naprednog konverzacijskog načina rada modela, postavljana su mu razna pitanja, a on je odgovarao glasovno – ali svojim zadanim generičkim glasom. No, u jednom trenutku "slučajno" je počeo odgovarati simuliranim glasom ispitivačice, što mu nije bilo zadano.
Model, koji stoji iza ChatGPT-a, ima mogućnost sinteze glasa nalik ljudskome, a (kao i svi ostali AI modeli) uči iz dostupnih mu primjera. Tako i taj model može, u teoriji, stvarati glasovne zapise koji imitiraju zvuk nečijeg glasa, iako mu to nije primarna namjena, niti se to od njega očekuje
Alati koji imitiraju ljudske glasove obično mogu to "naučiti" iz tek nekoliko sekundi audio zapisa, pa se čini da to može i GPT-4o. Međutim, specijalizirani AI modeli s takvim mogućnostima obično ne budu pušteni u javnu upotrebu jer se smatra da su preopasni. Njima se može lako stvoriti uvjerljiv lažirani sadržaj, provoditi socijalni inženjering i razne prevare ili pak stvarati lažne vijesti s dalekosežnim posljedicama.
Neželjeno ponašanje modela OpenAI je opisao kao "slabost" svojeg sustava, a u njega su ugradili i zaštitni mehanizam, koji ima cilj zaustaviti razgovor dođe li u stvarnim uvjetima korištenja do sličnog imitiranja glasova. Rizik je time, poručuju, sveden na minimum.