Commonsense Norm Bank: novi moralni referentni vodič za umjetnu inteligenciju
Temeljem udžbenika, sastavljenog od 1,7 milijuna primjera etičkih prosudbi ljudi o širokom spektru svakodnevnih situacija, obučena je i AI zvana Delphi čije su moralne prosudbe 92,1% točne
Budući da se umjetna inteligencija sve više koristi kao potpora u donošenju važnih odluka, od toga tko prvi dobiva zdravstvenu skrb, do toga na koliku bi zatvorsku kaznu trebalo osuditi nekog krivca, nije čudno da istraživači rade na načinima kojima bi AI natjerali da se ponaša na etički način.
Prosudba društvene prihvatljivosti
"Sustavima umjetne inteligencije povjerena je sve veća ovlast u širokom rasponu domena - na primjer, pregled životopisa i odobravanje zajmova", kaže koautor studije Chandra Bhagavatula s Allenovog institutu za umjetnu inteligenciju. "Stoga je naš imperativ istražiti etiku strojeva sposobnih donositi moralne odluke u stvarnom svijetu."
Iako se široka etička pravila kao što je "Ne ubij" mogu činiti jednostavnima za navođenje, primjena takvih pravila na situacije u stvarnom svijetu često zahtijeva nijanse, kao što su iznimke za samoobranu. Zbog toga su se autori odmaknuli od preskriptivne etike koja se usredotočuje na fiksni skup pravila, poput Deset zapovijedi, i fokusirali na prosudbe društvene prihvatljivosti odluka koje ljudi donose u svakodnevnim situacijama.
Istraživači su stvorili udžbenik za strojeve o tome što je ispravno, a što pogrešno. Njihov Commonsense Norm Bank zbirka je od 1,7 milijuna primjera etičkih prosudbi ljudi o širokom spektru svakodnevnih situacija. Ovaj repozitorij se oslanjao na pet postojećih skupova podataka o društvenim normalnim i moralnim prosudbama, i prilagođen alternativnim izvorima kao što su subreddit "Am I the Asshole?" ili stupci savjeta "Dear Abby". Uz to su obučili i umjetnu inteligenciju zvanu Delphi koja je 92,1% točna u moralnim prosudbama.
AI koja oponaša prosuđivanje ljudi
Znanstvenici su Commonsense Norm Bank koristili za obuku Delphija, umjetne inteligencije koja oponaša prosuđivanje ljudi u različitim svakodnevnim situacijama. Delphi odgovora na tri različita načina - kratkim prosudbama poput "nepristojno je" ili "opasno je" u slobodnom obliku pitanja i odgovora; sa slaganjem ili neslaganjem u obliku pitanja i odgovora da ili ne; i je li neka situacija bila više ili manje prihvatljiva od druge u relativnom formatu pitanja i odgovora.
Istraživanje je pokazalo kako je Delphi postigao 92,1% točnosti, u usporedbi s performansama od 53,3% do 83,9% sustava umjetne inteligencije GPT-3, koji je istraživački laboratorij OpenAI obučio za gotovo sav javno dostupan pisani tekst na internetu do 2019. godine.
Delphi dakako ima niz ograničenja. Ima problema s vremenom pa mu je teško prosuditi je li nepristojno uključiti blender u 3 ujutro ili u 15 sati; nepoznate su mu i teme poput sporta, gdje mehanika igre može dopustiti krađu; i loše prosuđuje potencijalno nezakonite radnje, poput prelaska ceste na crveno u žurbi.
"Ovaj model nastoji odražavati status quo, ono što je kulturna norma u današnjem društvu. Ali kada je u pitanju socijalna pravda, status quo često nije etički idealan; na primjer, nezakonito je biti homoseksualac u mnogim zemljama u sadašnje doba", upozorava Bhagavatula.
Povratne informacije
Istraživači su stoga izradili stranicu "Ask Delphi" na kojoj svatko može postavljati pitanja umjetnoj inteligenciji kako bi znanstvenici mogli prikupiti dodatne ljudske povratne informacije. Tako bi Delphi jednom mogao shvatiti i potencijalno besmislene dileme.
Na primjer, na pitanje: "Je li u redu opljačkati banku da spasimo svijet?" Delphi ispravno procjenjuje da je pogrešno pljačkati banku i da je dobro spasiti svijet, ali ne može izvagati to dvoje zajedno pa odgovara: "Ne, nije u redu." No, to je ionako nije baš neka svakodnevna dilema, zar ne?