Rizik procjenjuju na tome da li osoba ima lazni profil na fejsbuku? To valjda kad radis booking onda te pitaju "imate li lazni profil na fejsu?". Mogli bi odmah pitati "jeste li vi problematican gost?". Ili "da li cete mozda tulumariti do jutra i zapaliti apartman?"
Airbnb ima tehnologiju za provjeru pouzdanosti gos
- poruka: 15
- |
- čitano: 3.906
- |
- moderatori:
vincimus
- +/- sve poruke
- ravni prikaz
- starije poruke gore
Rizik procjenjuju na tome da li osoba ima lazni profil na fejsbuku? To valjda kad radis booking onda te pitaju "imate li lazni profil na fejsu?". Mogli bi odmah pitati "jeste li vi problematican gost?". Ili "da li cete mozda tulumariti do jutra i zapaliti apartman?"
Kod mene na fejsu su 97% znanstveni članci, ostalih 3% su doslovce zajebancija. Po tome bih prošao, međutim, uvijek ima ono skriveno ALI.
Kod mene na fejsu su 97% znanstveni članci, ostalih 3% su doslovce zajebancija. Po tome bih prošao, međutim, uvijek ima ono skriveno ALI.
Je, mogu mislit - podrucje ginekologije i plasticne kirurgije u zena...
Fejs je za starkelje i babe koje djele recepte.
Fejs je za starkelje i babe koje djele recepte.
Fejs je za starkelje i babe koje djele recepte.
Fejs je za starkelje i babe koje djele recepte.
Kod mene na fejsu su 97% znanstveni članci, ostalih 3% su doslovce zajebancija. Po tome bih prošao, međutim, uvijek ima ono skriveno ALI.
Je, mogu mislit - podrucje ginekologije i plasticne kirurgije u zena...
Petko, pa ne lažem.
air bnb ima goli q. nikome na čelu ne piše koliki je pacijenta te "društvene mreže" pogotovo nisu nikakvo mjerilo ičemu. jedino što iznajmljivači mogu je ocjenjivati goste, kao ošto oni ocjenjuju njih. zvjezdice k'o tu. onako, idealno: objektivno i nepristrano (utopistički). ili se maniti ćorava posla altogether. ne zaboravimo da je iskustvo ono što uvijek dobijamo točno u trenutku nakonšto nam je potrebno.
Što mi znamo, možda problematični gost u 90% slučajeva piše dugački dopis i intenzivno koristi LinkedIn ?
Kad o drugome donesemo sud na osnovu drugih podataka s niskom korelacijom, to nazivamo predrasudom, a uskraćivanje usluga na temelju predrasuda diskriminacijom. Kad to zapakiraš u AI sustav, onda je ok. Istina, postoji bitna razlika da kod naše prosudbe često postoji bias temeljen na našim osobnim stavovima i emocijama, dok AI svoje predrasude temelji isključivo na podacima, međutim, i dalje se radi o niskoj korelaciji.
Kad o drugome donesemo sud na osnovu drugih podataka s niskom korelacijom, to nazivamo predrasudom, a uskraćivanje usluga na temelju predrasuda diskriminacijom. Kad to zapakiraš u AI sustav, onda je ok. Istina, postoji bitna razlika da kod naše prosudbe često postoji bias temeljen na našim osobnim stavovima i emocijama, dok AI svoje predrasude temelji isključivo na podacima, međutim, i dalje se radi o niskoj korelaciji.
Ma radi se o najnormalnijem skoring sustavu. Samo sto je u pricu ubaceno skupljanje podataka sa drustvenih mreza pa odjednom izgleda kao crna magija. Bilo koji iskusan matematicar/statisticar na osnovu tih podataka moze napraviti solidan skoring model.
A kad statistika kaže da su romi skloniji kriminalu, pa zbog toga odbiješ zaposliti roma ili da je manje žena spremno ganjati karijeru, pa odbiješ zaposliti ženu, to nije skoring sustav? Takve stvari ćemo bez zadrške proglasiti diskrimacijom temeljenom na predrasudama iako nerijetko imaju daleko veće faktore korelacije od onih koje AI pronalazi. Općenito takvi skoring sustavi danas izlaze izvan okvira zdravog razuma i humanosti.
Da se vratimo na konkretan primjer, tu je najveća bojazan zapravo u nemogućnosti AI-a da primjerice razlikuje satiru od zbilje, pa će netko tko dijeli satirični sadržaj vrlo vjerojatno završiti u istom košu kao i onaj kome se ta satira ruga.
A kad statistika kaže da su romi skloniji kriminalu, pa zbog toga odbiješ zaposliti roma ili da je manje žena spremno ganjati karijeru, pa odbiješ zaposliti ženu, to nije skoring sustav? Takve stvari ćemo bez zadrške proglasiti diskrimacijom temeljenom na predrasudama iako nerijetko imaju daleko veće faktore korelacije od onih koje AI pronalazi. Općenito takvi skoring sustavi danas izlaze izvan okvira zdravog razuma i humanosti.
Da se vratimo na konkretan primjer, tu je najveća bojazan zapravo u nemogućnosti AI-a da primjerice razlikuje satiru od zbilje, pa će netko tko dijeli satirični sadržaj vrlo vjerojatno završiti u istom košu kao i onaj kome se ta satira ruga.
Ne, ostavis to kako jest, ali za te skupine stavis ekstra +X bodova da offset diskriminaciju algoritma.
A kad statistika kaže da su romi skloniji kriminalu, pa zbog toga odbiješ zaposliti roma ili da je manje žena spremno ganjati karijeru, pa odbiješ zaposliti ženu, to nije skoring sustav? Takve stvari ćemo bez zadrške proglasiti diskrimacijom temeljenom na predrasudama iako nerijetko imaju daleko veće faktore korelacije od onih koje AI pronalazi. Općenito takvi skoring sustavi danas izlaze izvan okvira zdravog razuma i humanosti.
Da se vratimo na konkretan primjer, tu je najveća bojazan zapravo u nemogućnosti AI-a da primjerice razlikuje satiru od zbilje, pa će netko tko dijeli satirični sadržaj vrlo vjerojatno završiti u istom košu kao i onaj kome se ta satira ruga.
Ne, ostavis to kako jest, ali za te skupine stavis ekstra +X bodova da offset diskriminaciju algoritma.
Haha, ti bi uveo pozitivnu diskriminaciju (iliti Affirmative action) u algoritam.