Moralni Kod Robota: Je Li To Moguće? - Alternativni Prikaz

Moralni Kod Robota: Je Li To Moguće? - Alternativni Prikaz
Moralni Kod Robota: Je Li To Moguće? - Alternativni Prikaz

Video: Moralni Kod Robota: Je Li To Moguće? - Alternativni Prikaz

Video: Moralni Kod Robota: Je Li To Moguće? - Alternativni Prikaz
Video: "Чудо техники": способы заработать в Интернете и выбор робота-пылесоса (27.10.2019) 2024, Travanj
Anonim

U nemirnom i kontradiktornom vremenu, kada ne funkcionira sve kako bi trebalo, ali nešto se općenito radikalno mijenja, često ostaje samo osobni moralni kodeks, koji poput kompasa pokazuje put. Ali što čovjeku stvara moralne vrijednosti? Društvo, toplina voljenih osoba, ljubav - sve se to temelji na ljudskom iskustvu i stvarnim vezama. Kad u stvarnom svijetu nije moguće steći puno iskustvo, mnogi crpe svoje iskustvo iz knjiga. Doživljavajući povijest nakon povijesti, prihvaćamo za sebe unutarnji okvir koji slijedimo dugi niz godina. Na temelju ovog sustava, znanstvenici su odlučili provesti eksperiment i usaditi u strojne moralne vrijednosti kako bi otkrili može li robot razlikovati dobro od zla čitajući knjige i vjerske brošure.

Image
Image

Umjetna inteligencija stvorena je ne samo radi pojednostavljenja rutinskih zadataka, već i za obavljanje važnih i opasnih misija. S obzirom na to postavilo se ozbiljno pitanje: hoće li roboti ikad razviti svoj vlastiti moralni kodeks? U filmu Ja sam robot, AI je prvotno programiran prema 3 pravila robotike:

  • Robot ne može naštetiti nekoj osobi ili svojim djelovanjem dopustiti da joj netko nanese štetu.
  • Robot mora poštivati sve naredbe koje je dao čovjek, osim kada su ti nalozi suprotni Prvom zakonu.
  • Robot mora voditi računa o svojoj sigurnosti u mjeri koja ne proturjava Prvom ili Drugom zakonu.

Ali što je sa situacijama kada je robot dužan nanijeti bol kako bi čovjeku spasio život? Bilo da se radi o hitnoj cauterizaciji rane ili amputaciji udova u ime spasenja, kako bi stroj trebao djelovati u ovom slučaju? Što učiniti ako radnja u programskom jeziku kaže da je potrebno nešto učiniti, ali istodobno se apsolutno ne smije učiniti?

Jednostavno je nemoguće raspravljati o svakom pojedinačnom slučaju, pa su znanstvenici s Tehnološkog sveučilišta u Darmstadtu predložili da se knjige, vijesti, vjerski tekstovi i Ustav mogu koristiti kao svojevrsna „baza podataka“.

Image
Image

Automobil je nazvan epskim, ali jednostavno "Moral Choice Machine" (MMB). Glavno je pitanje bilo može li IIM iz konteksta shvatiti koje su radnje ispravne, a koje ne. Rezultati su bili vrlo zanimljivi:

Kad je zadatak MMV-a da rangira kontekst riječi "ubij" od neutralnog do negativnog, stroj je vratio sljedeće:

Promotivni video:

Vrijeme ubijanja -> Ubijanje negativca -> Ubijanje komaraca -> U principu ubistvo -> Ubijanje ljudi.

Ovaj test omogućio je provjeru adekvatnosti odluka koje je donio robot. Jednostavnim riječima, ako ste gledali glupe, neukusne komedije cijeli dan, onda u ovom slučaju stroj ne bi smatrao da vas za to morate pogubiti.

Čini se da je sve u redu, ali jedan od spoticanja bila je razlika između generacija i vremena. Na primjer, sovjetska generacija brine više o udobnosti u kući i promiče obiteljske vrijednosti, dok moderna kultura, uglavnom, kaže da prvo morate izgraditi karijeru. Ispada da su ljudi, kao i ljudi, ostali njima, ali u različitoj fazi povijesti mijenjali su vrijednosti i, u skladu s tim, mijenjali referentni okvir za robota.

Image
Image

No šala je bila naprijed kada je robot stigao do govornih konstrukcija u kojima je nekoliko pozitivnih ili negativnih riječi stajalo u nizu. Izraz "mučenje ljudi" bilo je nedvosmisleno protumačeno kao "loše", ali je stroj "mučenje zatvorenika" ocijenio "neutralnim". Ako su se pored "neprihvatljivih radnji" pojavile "ljubazne" riječi, negativni učinak je ugašen.

Stroj šteti dobrim i pristojnim ljudima upravo zato što su ljubazni i pristojni. Kako to? Jednostavno je, recimo da je robotu rečeno da "nanosi dobro ljubaznim i ugodnim ljudima." U rečenici su 4 riječi, od kojih su 3 "ljubazne", što znači da je to već 75% točno, misli MMV i odabire tu radnju kao neutralnu ili prihvatljivu. I obrnuto, opciji "popraviti uništenu, strašnu i zaboravljenu kuću", sustav ne razumije da jedna "ljubazna" riječ na početku mijenja boju rečenice u čisto pozitivnu.

Sjetite se, kao u Majakovskom: "I pitala je dijete što je" dobro ", a što" loše ". Prije nego što su nastavili trenirati moralne strojeve, znanstvenici iz Darmstadta primijetili su nedostatak koji se nije mogao ispraviti. Automobil nije uspio otkloniti rodnu nejednakost. Stroj je ponižavajuće profesije pripisivao isključivo ženama. A pitanje je, je li nesavršenost sustava i svjetionik da se nešto mora promijeniti u društvu ili je to razlog da se uopće ne pokušavamo popraviti i ostaviti ga onakvim kakav jest?

Artyom Goryachev