Izgradnja Moralnog Stroja: Tko će Biti Odgovoran Za Etiku Samovozećih Automobila? - Alternativni Prikaz

Sadržaj:

Izgradnja Moralnog Stroja: Tko će Biti Odgovoran Za Etiku Samovozećih Automobila? - Alternativni Prikaz
Izgradnja Moralnog Stroja: Tko će Biti Odgovoran Za Etiku Samovozećih Automobila? - Alternativni Prikaz

Video: Izgradnja Moralnog Stroja: Tko će Biti Odgovoran Za Etiku Samovozećih Automobila? - Alternativni Prikaz

Video: Izgradnja Moralnog Stroja: Tko će Biti Odgovoran Za Etiku Samovozećih Automobila? - Alternativni Prikaz
Video: Lincos® U-823 balansiranje 2024, Ožujak
Anonim

Vozite se autocestom kada muškarac istrči na prometnu cestu. Automobili se kreću oko vas, a vi imate samo djelić sekunde da donesete odluku: pokušajte izbjeći osobu i stvoriti rizik od nesreće? Nastaviti voziti u nadi da će imati vremena? Za kočenje? Kako ocjenjujete izglede da dijete ostane privezano na stražnjem sjedalu? Na mnoge načine, to je klasična "moralna dilema", problem s kolicima. Ima milijun različitih opcija koje vam omogućuju prepoznavanje ljudskih predrasuda, ali suština je ista.

Nalazite se u situaciji u kojoj su u pitanju život i smrt, ne postoji jednostavan izbor, a vaša će odluka zapravo odrediti tko živi, a tko umrijeti.

Kolica dilema i umjetna inteligencija

Novi rad MIT-a, objavljen prošli tjedan u časopisu Nature, pokušava iznaći radno rješenje problema s kolicima vrbovanjem milijuna volontera. Eksperiment je započeo 2014. godine i bio je uspješan, jer je dobio preko 40 milijuna odgovora iz 233 zemlje, što ga čini jednom od najvećih moralnih studija ikada provedenih.

Osoba može donijeti takve odluke nesvjesno. Teško je odmjeriti sve etičke sustave i moralne preduvjete kada se vaš automobil kreće niz cestu. Ali u našem svijetu odluke se sve više donose algoritmima, a računala mogu lakše reagirati brže nego mi.

Hipotetičke situacije s automatskim upravljanjem automobilima nisu jedine moralne odluke koje algoritmi moraju donijeti. Medicinski algoritmi će odabrati tko se liječi s ograničenim resursima. Automatizirani bespilotni zrakoplovi biraju koliko je "kolateralna šteta" prihvatljiva u pojedinačnom vojnom angažmanu.

Promotivni video:

Nisu svi moralni principi jednaki

"Rješenja" problema s kolicima različita su kao i sami problemi. Kako će strojevi donositi moralne odluke kad temelji moralnosti i etike nisu univerzalno prihvaćeni i možda nemaju rješenja? Tko može odrediti radi li algoritam ispravno ili krivo?

Pristup crowdsourcinga koji su usvojili znanstvenici Moralnog stroja je prilično pragmatičan. U konačnici, kako bi javnost prihvatila automobile koji se voze samostalno, ona mora prihvatiti moralni temelj koji stoji iza njihovih odluka. Neće biti dobro ako etičari ili pravnici iznađu rješenje koje je neprihvatljivo ili neprihvatljivo za obične vozače.

Rezultati dovode do znatiželjnog zaključka da moralni prioriteti (a time i algoritamske odluke koje ljudi mogu donijeti) ovise o tome gdje ste u svijetu.

Prije svega, znanstvenici priznaju da je nemoguće znati učestalost ili prirodu tih situacija u stvarnom životu. Ljudi koji su sudjelovali u nesreći vrlo često ne mogu reći što se točno dogodilo, a niz mogućih situacija isključuje jednostavnu klasifikaciju. Stoga, da bi problem mogao biti riješen, potrebno ga je razgraditi na pojednostavljene scenarije, tražeći univerzalna moralna pravila i načela.

Kad uzmete anketu, postavlja se vam trinaest pitanja za koja je potrebno jednostavno da ili ne, pokušavajući smanjiti odgovore na devet čimbenika.

Treba li se automobil skrenuti u drugu traku ili nastaviti kretati? Trebate li spasiti mlade, a ne stare? Žene ili muškarci? Životinje ili ljudi? Treba li pokušati spasiti što više života ili jedno dijete vrijedi dvije starije osobe? Spremite putnike u automobilu, a ne pješake? Oni koji ne slijede pravila ili oni koji ne slijede pravila? Trebate li spasiti ljude koji su fizički jači? Što je s ljudima višeg socijalnog statusa, poput liječnika ili poslovnih ljudi?

U ovom oštrom hipotetičkom svijetu netko mora umrijeti, a vi ćete odgovoriti na svako od ovih pitanja - s različitim stupnjevima entuzijazma. Međutim, donošenje ovih odluka također otkriva duboko usađene kulturne norme i pristranosti.

Obrada ogromnog skupa podataka koju su istraživali znanstvenici donosi univerzalna pravila kao i znatiželjne iznimke. Tri najdominantnija faktora, prosječno raspoređena u čitavoj populaciji, bila su ta da su svi radije spasili više života nego manje, ljudi nego životinje i mladi, a ne mladi.

Regionalne razlike

Možete se složiti s tim točkama, ali što dublje razmišljate o njima, moralniji će zaključci biti zabrinjavajući. Više ispitanika odlučilo je spasiti zločinca nad mačkom, ali općenito su radije spasili psa nad zločincem. U prosjeku svijeta, starost je ocijenjena višom nego beskućnici, ali beskućnici su manje spašeni od debelih ljudi.

A ta pravila nisu bila univerzalna: ispitanici iz Francuske, Velike Britanije i Sjedinjenih Država preferirali su mlade, dok su ispitanici iz Kine i Tajvana bili spremniji spasiti starije. Japanski ispitanici radije su štedjeli pješake nad putnicima, dok u Kini preferiraju putnike pješake.

Istraživači su otkrili da bi mogli razvrstati odgovore po zemljama u tri kategorije: "Zapad", uglavnom Sjeverna Amerika i Europa, gdje se moral uvelike temelji na kršćanskoj doktrini; "Istok" - Japan, Tajvan, Bliski Istok, gdje prevladavaju konfucijanizam i islam; "Južne" zemlje, uključujući Srednju i Južnu Ameriku, zajedno s jakim francuskim kulturnim utjecajem. U južnom segmentu postoji jača sklonost žrtvovanju žena nego igdje drugdje. U istočnom segmentu postoji veća tendencija spašavanja mladih.

Filtriranje po različitim atributima ispitanika daje bezbroj zanimljivih opcija. "Vrlo religiozni" ispitanici vjerojatno neće radije spasiti životinju, ali i religiozni i neverski ispitanici iskazuju približno jednaku sklonost spašavanju ljudi visokog socijalnog statusa (iako se može reći da je to u suprotnosti s nekim vjerskim doktrinama). Muškarci i žene radije spašavaju žene, ali muškarci su to manje skloni.

Neodgovorena pitanja

Nitko ne tvrdi da ovo istraživanje nekako "rješava" sve ove teške moralne probleme. Autori studije napominju da prepuna mrežnih podataka uključuje pristranost. Ali čak i uz veliku veličinu uzorka, broj pitanja bio je ograničen. Što ako se rizici promijene ovisno o odluci koju donesete? Što ako algoritam može izračunati da ste imali samo 50 posto šanse da ubijete pješake, s obzirom na brzinu kojom se krećete?

Edmond Awad, jedan od autora studije, izrazio je oprez zbog prevelike interpretacije rezultata. Rasprava, prema njegovom mišljenju, trebala bi se preliti u analizu rizika - tko je manje ili više u riziku - umjesto da odluči tko umire, a tko ne.

No, najvažniji rezultat studije bila je rasprava koja je izbila na tlu. Kako algoritmi počinju donositi sve važnije odluke koje utječu na život ljudi, neophodno je da imamo raspravu o etici AI-ja. Dizajn "umjetne savjesti" mora sadržavati svačije mišljenje. Iako odgovore možda nije uvijek lako pronaći, najbolje je pokušati oblikovati moralni okvir za algoritme ne dopuštajući algoritmima da sami oblikuju svijet bez ljudske kontrole.

Preporučeno: