IBM promovira odgovorno korištenje umjetne inteligencije

IBM je održao online okrugli stol s medijima na temu „Odgovorno korištenje umjetne inteligencije (AI)“ na kojem je predstavljen i IBM-ov rad na transparentnosti i sigurnosti umjetne inteligencije

Stjepan Bilić subota, 1. svibnja 2021. u 16:21

IBM je u četvrtak 29. travnja održao online okrugli stol s predstavnicima medija. Tema okruglog stola bila je „Odgovorno korištenje umjetne inteligencije (AI). Izlaganje je održala IBM-ova suradnica i znanstvenica Aleksandra (Saška) Mojsilović koja je naglasak stavila na ranjivosti AI-a poput izloženosti pristranosti, nedostatka objašnjivosti i osjetljivosti na napade koji posebno dizajniranim unosom podataka proizvode pogrešne rezultate. Također se govorilo i o trenutnoj kontroverznoj upotrebi tehnologije, posebice kada se AI koristi za stvaranje potencijalno štetnih sadržaja poput deepfakea, zapaljivih sadržaja i algoritama društvenih mreža koji korisnike usmjeravaju prema dezinformacijama.

Aleksandra Mojsilović  trenutno radi kao voditeljica AI Foundations u IBM Researchu i kodirektorica u IBM Science for Social Good. Također je posebna IBM-ova i IEEE-ova suradnica. Autorica je preko 100 publikacija i posjeduje 16 patenata. Među najnovijim projektima na kojima je dr. Mojsilović radila je AI sustav IBM Researcha koji je predstavljen u ožujku 2021.
Aleksandra Mojsilović trenutno radi kao voditeljica AI Foundations u IBM Researchu i kodirektorica u IBM Science for Social Good. Također je posebna IBM-ova i IEEE-ova suradnica. Autorica je preko 100 publikacija i posjeduje 16 patenata. Među najnovijim projektima na kojima je dr. Mojsilović radila je AI sustav IBM Researcha koji je predstavljen u ožujku 2021.

Dr. Mojsilović naglasila je da same performanse neće biti dovoljne kao paradigma dizajna umjetne inteligencije već da će se morati poraditi i na drugom bitnom dijelu jednadžbe – etičkim pitanjima. IBM Research stoga razvija tehnike i algoritme za procjenu - i rješavanje - temeljnih elemenata povjerenja za AI sustave: alata koji otkrivaju i ublažavaju pristranost, otkrivaju ranjivosti, uklanjaju napade i demaskiraju postupak donošenja odluka. Budući da AI napreduje, ljudi i AI sustavi sve više surađuju i ključno je da vjerujemo rezultatima tih sustava kako bismo donosili svoje odluke.

Stručnjaci iz IBM Researcha identificiraju sljedeće stupove kako bi stvorili osnovu za pouzdane AI sustave:

  • Pravičnost: AI sustavi trebali bi koristiti podatke u razvoju i modele u kojima nema pristranosti, kako bi se izbjeglo nepravedno postupanje s nekim skupinama podataka
  • Robusnost: AI sustavi trebaju biti sigurni i zaštićeni, ne smiju biti podložni neovlaštenom upravljanju ili ugrožavanju podataka na kojima su razvijeni
  • Objašnjivost: AI sustavi trebaju pružati odluke ili prijedloge koji mogu biti razumljivi njihovim korisnicima i programerima
  • Loza: AI sustavi trebaju sadržavati detalje o njihovom razvoju, implementaciji i održavanju kako bi mogli biti revidirani tijekom svog životnog ciklusa

Naglašeno je i kako se povjerenje u sustav ne može graditi samo na jednom stupu. Primjerice, ako je AI sustav pravedan, ali ne može odoljeti napadu, neće mu se moći vjerovati. Isto tako ako je siguran, ali nitko ne može razumjeti podatke koje pruža, također mu se neće vjerovati. Stoga je nužno ojačati sve stupove zajedno, kao i sposobnost mjerenja i komuniciranja razina izvedbe sustava u svakoj od ovih dimenzija.

Jedan od načina da se to postigne bio bi pružanje takvih podataka putem SDoC-a ili informativnih tablica za usluge AI. U njih IBM-ovi stručnjaci predlažu da se uključe informacije o radu sustava, podacima o razvoju, osnovnim algoritmima, postavljanju i rezultatima ispitivanja, mjerilima performansi, provjerama pravednosti i robusnosti, namjeravanoj uporabi te održavanju i prekvalifikaciji. Za detaljnije informacije posjetite stranice IBM-ovog projekta AI FactSheet , a za više informacija o radu dr. Mojsilović i IBM-ovog istraživačkog tima na polju etike AI-a Trusting AI.