Društvo u kojem svaki pijani retard oko mene može imati automatsku pušku nije nimalo slobodnije od zatvora.
I kao što je netko rekao, sloboda je u imovini i poziciji
Nije prirodno
Super argument. Sigurno te velečasni tome podučio.
Hartz-Timor swarm glitch (svježi dojmovi iz Horizon Zero Dawna)
Ljudi nisu svjesni negativnih implikacija stvaranja "samosvjesnih" robota. Roboti nikad neće biti samosvjesni na način na koji smo mi, bez obzira koliko bili napredni i nakljukani tehnologijom jer nije moguće tehnologijom rekreirati ljudski živčani sustav u pravom smislu riječi, to bi bila više nesvjesna nevjerojatno složena simulacija, dakle roboti bi i dalje bili nesvjesni, a imali bi sva prava kao i ljudi. Tu vidim nevjerojatno negativne implikacije.
Pa za sada je dovoljno da ostane tako, još je prerano za ono što sam spominjao.. Ali kad tad ćemo morati polako proširivati tu kategoriju "ljudska prava". Možda za 50, možda za 500, možda za 50000 godina, neznam...
swap u ramu je najbrza varijanta
WTF? Pa u ramu vec imas kesirano pun kufer toga po defaultu. Gdje ce ti jos i swap stati?
Ljudi imaju razvijenu empatiju i sklonost antropomorfizirati druga bića i objekte. Ako roboti svojim izgledom i ponašanjem dovoljno nalikuju ljudima, ljudi će početi osjećati empatiju, kao što ju osjećaju prema nekim životinjama i smetati će ih iživljavanje na njima, te će tražiti njihovu zakonsku zaštitu, jer se osjećaju neugodno kada vide stradavanje objekta za kojeg imaju osjećaje, bio to čovjek, štenac ili robot.
Naravno postoje i oni koji nisu toliko tome skloni i kojima nije problem zaklati ovcu ili svinju, nekima nije problem ni štenca, a nekima ni čovjeka, pa će biti i onih kojima nije problem robota.
1. A robot must never harm a human, or through inaction allow a human to come to harm.
Treci zakon je posebno debilan. Zamisli situaciju kao u cernobilu. Imas super modernog robota koji bi trebao pocistiti ozraceno podrucje. Kazes mu da ide a on ti kaze "necu, tamo je zracenje i moze biti opasno po mene". E pa jebem ti ja sad malo mater onda...
Nije, jer izričito kaže da vrijedi samo onda kad nije u konfliktu s prvim i drugim, dakle, naredba da počisti radioaktivni materijal suspendira treći zakon jer je naređeno, ali i sama činjenica da će, ukoliko robot ne djeluje, doći do ljudskih žrtava, mu zapravo naređuje da djeluje i bez eksplicitne naredbe, već na temelju prvog zakona.
Što se tiče oružja, obrambeno oružje može funkcionirati - ako ne djeluje, nastati će veće ljudske žrtve nego ako djeluje. Problem nastaje ako AI krene kreativno tumačiti te zakone, pa svako ponašanje počne opravdavati većim dobrom.
valja biti diplomat i taktičan te prvo pokušati mirenje međusobno zavađenog špareta i frižidera. po danu, jasno, da se ne bi noću šparet i mikrovalna dogovorili da prebace deku preko frižidera i premlate ga usisivačem. rumbe i laptopi moraju imati mogućnost obraniti se od mačaka. najmanje nam je potreban war of things, jer to marketing ne predviđa.
Zasto da ista diram kad sve radi savrseno?
Treci zakon je posebno debilan. Zamisli situaciju kao u cernobilu. Imas super modernog robota koji bi trebao pocistiti ozraceno podrucje. Kazes mu da ide a on ti kaze "necu, tamo je zracenje i moze biti opasno po mene". E pa jebem ti ja sad malo mater onda...
Nije, jer izričito kaže da vrijedi samo onda kad nije u konfliktu s prvim i drugim, dakle, naredba da počisti radioaktivni materijal suspendira treći zakon jer je naređeno, ali i sama činjenica da će, ukoliko robot ne djeluje, doći do ljudskih žrtava, mu zapravo naređuje da djeluje i bez eksplicitne naredbe, već na temelju prvog zakona.
Sjećam se Asimovljevih kratkih priča na temu tih zakona, jedna mi je posebno ostala u sjećanju.
Kada su na nekoj istraživačkoj postaji na nekom udaljenom planetu (ili mjesecu, svejedno) poslali robota da skupi neki uzorak iz tog nekog jako štetnog okoliša (kojeg su istraživali) pa mu nisu dali dovoljno eksplicitnu naredbu, nego onako ovlaš - odi tamo i skupi uzorak...
Kad bi krenuo iz baze, gdje za robota nije bilo uopće štetno, sve je bilo oke, no kako se približavao mjestu uzimanja uzorka, tako se razina štetnosti povećavala i robot se u jednom trenutku okrenuo jer je treći zakon nadjačao drugi. Onda bi u povratku razina štetnosti opala, pa se opet okretao natrag da ide po uzorak i tako ukrug :)
A ovi ga ne mogu kontaktirati jer naravno da nešto ometa komunikaciju... Uglavnom, fora :)