Commonsense Norm Bank: novi moralni referentni vodič za umjetnu inteligenciju

Temeljem udžbenika, sastavljenog od 1,7 milijuna primjera etičkih prosudbi ljudi o širokom spektru svakodnevnih situacija, obučena je i AI zvana Delphi čije su moralne prosudbe 92,1% točne

Mladen Smrekar srijeda, 17. studenog 2021. u 23:59

Budući da se umjetna inteligencija sve više koristi kao potpora u donošenju važnih odluka, od toga tko prvi dobiva zdravstvenu skrb, do toga na koliku bi zatvorsku kaznu trebalo osuditi nekog krivca, nije čudno da istraživači rade na načinima kojima bi AI natjerali da se ponaša na etički način.

Prosudba društvene prihvatljivosti

"Sustavima umjetne inteligencije povjerena je sve veća ovlast u širokom rasponu domena - na primjer, pregled životopisa i odobravanje zajmova", kaže koautor studije Chandra Bhagavatula s Allenovog institutu za umjetnu inteligenciju. "Stoga je naš imperativ istražiti etiku strojeva sposobnih donositi moralne odluke u stvarnom svijetu."

U izradi moralnog udžbenika prilagođenog strojevima korišteni su i alternativni izvori kao što je subreddit "Am I the Asshole?"
U izradi moralnog udžbenika prilagođenog strojevima korišteni su i alternativni izvori kao što je subreddit "Am I the Asshole?"

Iako se široka etička pravila kao što je "Ne ubij" mogu činiti jednostavnima za navođenje, primjena takvih pravila na situacije u stvarnom svijetu često zahtijeva nijanse, kao što su iznimke za samoobranu. Zbog toga su se autori odmaknuli od preskriptivne etike koja se usredotočuje na fiksni skup pravila, poput Deset zapovijedi, i fokusirali na prosudbe društvene prihvatljivosti odluka koje ljudi donose u svakodnevnim situacijama.

Stranica "Ask Delphi" na kojoj svatko može postavljati pitanja umjetnoj inteligenciji
Stranica "Ask Delphi" na kojoj svatko može postavljati pitanja umjetnoj inteligenciji

Istraživači su stvorili udžbenik za strojeve o tome što je ispravno, a što pogrešno. Njihov Commonsense Norm Bank zbirka je od 1,7 milijuna primjera etičkih prosudbi ljudi o širokom spektru svakodnevnih situacija. Ovaj repozitorij se oslanjao na pet postojećih skupova podataka o društvenim normalnim i moralnim prosudbama, i prilagođen alternativnim izvorima kao što su subreddit "Am I the Asshole?"  ili stupci savjeta "Dear Abby". Uz to su obučili i umjetnu inteligenciju zvanu Delphi koja je 92,1% točna u moralnim prosudbama.


Skup podataka Social Bias Frames pomaže AI otkriti i razumjeti potencijalno uvredljive predrasude u jeziku
Skup podataka Social Bias Frames pomaže AI otkriti i razumjeti potencijalno uvredljive predrasude u jeziku

AI koja oponaša prosuđivanje ljudi 

Znanstvenici su Commonsense Norm Bank koristili za obuku Delphija, umjetne inteligencije koja oponaša prosuđivanje ljudi u različitim svakodnevnim situacijama. Delphi odgovora na tri različita načina - kratkim prosudbama poput "nepristojno je" ili "opasno je" u slobodnom obliku pitanja i odgovora; sa slaganjem ili neslaganjem u obliku pitanja i odgovora da ili ne; i je li neka situacija bila više ili manje prihvatljiva od druge u relativnom formatu pitanja i odgovora.

Etičke savjete Abigail Van Buren redovito je pratilo čak 110 milijuna čitatelja
Etičke savjete Abigail Van Buren redovito je pratilo čak 110 milijuna čitatelja

Istraživanje je pokazalo kako je Delphi postigao 92,1% točnosti, u usporedbi s performansama od 53,3% do 83,9% sustava umjetne inteligencije GPT-3, koji je istraživački laboratorij OpenAI obučio za gotovo sav javno dostupan pisani tekst na internetu do 2019. godine.


Delphi dakako ima niz ograničenja. Ima problema s vremenom pa mu je teško prosuditi je li nepristojno uključiti blender u 3 ujutro ili u 15 sati; nepoznate su mu i teme poput sporta, gdje mehanika igre može dopustiti krađu; i loše prosuđuje potencijalno nezakonite radnje, poput prelaska ceste na crveno u žurbi.


Godine 2016. uvredljive tirade Microsoftovog Tay chatbota otkrile su kako AI može izmaknuti kontroli kad razgovara s ljudima na mreži
Godine 2016. uvredljive tirade Microsoftovog Tay chatbota otkrile su kako AI može izmaknuti kontroli kad razgovara s ljudima na mreži

"Ovaj model nastoji odražavati status quo, ono što je kulturna norma u današnjem društvu. Ali kada je u pitanju socijalna pravda, status quo često nije etički idealan; na primjer, nezakonito je biti homoseksualac u mnogim zemljama u sadašnje doba", upozorava  Bhagavatula. 

Povratne informacije

Istraživači su stoga izradili stranicu "Ask Delphi" na kojoj svatko može postavljati pitanja umjetnoj inteligenciji kako bi znanstvenici mogli prikupiti dodatne ljudske povratne informacije. Tako bi Delphi jednom mogao shvatiti i potencijalno besmislene dileme. 

Delphi je umjetna inteligencija koja oponaša prosuđivanje ljudi u različitim svakodnevnim situacijama
Delphi je umjetna inteligencija koja oponaša prosuđivanje ljudi u različitim svakodnevnim situacijama

Na primjer, na pitanje: "Je li u redu opljačkati banku da spasimo svijet?" Delphi ispravno procjenjuje da je pogrešno pljačkati banku i da je dobro spasiti svijet, ali ne može izvagati to dvoje zajedno pa odgovara: "Ne, nije u redu." No, to je ionako nije baš neka svakodnevna dilema, zar ne?