Moralni Stroj: Inženjeri Su Umjetnu Inteligenciju Obdarili Moralom I Etikom - Alternativni Pogled

Sadržaj:

Moralni Stroj: Inženjeri Su Umjetnu Inteligenciju Obdarili Moralom I Etikom - Alternativni Pogled
Moralni Stroj: Inženjeri Su Umjetnu Inteligenciju Obdarili Moralom I Etikom - Alternativni Pogled
Anonim

Što jača AI ulazi u naš svakodnevni život, to se češće mora suočiti sa složenim moralnim i etičkim dilemama, koje živa osoba ponekad nije tako lako riješiti. Znanstvenici s MIT-a pokušali su riješiti ovaj problem i obdarili su stroj sposobnošću razmišljanja u skladu s moralom, na temelju mišljenja većine živih ljudi.

Neki stručnjaci vjeruju da je najbolji način za vježbanje umjetne inteligencije za rješavanje moralno teških situacija upotrebom "iskustva mnoštva". Drugi tvrde da ovaj pristup neće biti bez pristranosti, a različiti algoritmi mogu doći do različitih zaključaka na temelju istog skupa podataka. Kako mogu biti strojevi u takvoj situaciji, koja će očito morati donositi teške moralne i etičke odluke u radu sa stvarnim ljudima?

Intelekt i moral

Kako se sustavi umjetne inteligencije (AI) razvijaju, stručnjaci sve više pokušavaju riješiti problem kako najbolje sustavu dati etičku i moralnu osnovu za poduzimanje određenih radnji. Najpopularnija ideja je da AI donosi zaključke proučavajući ljudske odluke. Kako bi provjerili ovu pretpostavku, istraživači s Massachusetts Institute of Technology stvorili su Moralni stroj. Posjetitelji web stranice zamoljeni su da donesu odluku o tome što autonomno vozilo treba učiniti kad se suoči s prilično teškim izborom. Na primjer, ovo je poznata dilema o potencijalnoj nesreći koja ima samo dvije mogućnosti za razvoj događaja: automobil može udariti tri odrasle osobe kako bi spasio živote dvoje djece ili može učiniti suprotno. Koju biste opciju trebali odabrati? I je li moguće, na primjer,žrtvovati život starije osobe da bi spasio trudnicu?

Kao rezultat toga, algoritam je prikupio ogromnu bazu rezultata ispitivanja, a Ariel Procaccia sa Odjela za računalne znanosti na Sveučilištu Carnegie Mellon odlučio ih je koristiti za poboljšanje inteligencije stroja. U novoj studiji, on i jedan od tvoraca projekta, Iyad Rahwan, u AI su učitali kompletnu bazu projekta Moral Machine i zatražili od sustava da predvidi kako će automobil na autopilotu reagirati na slične, ali ipak malo drugačije scenarije. Procaccia je željela pokazati kako sustav zasnovan na glasovanju može biti rješenje za "etičku" umjetnu inteligenciju. "Sam autor djela priznaje da je takav sustav, naravno, još prerano za primjenu u praksi, ali izvrsno dokazuje sam koncept da moguće je.

Križni moral

Promotivni video:

Sama ideja izbora između dva moralno negativna ishoda nije nova. Etika za to koristi zaseban izraz: princip dvostrukog učinka. Ali ovo je područje bioetike, ali nitko prije nije primijenio takav sustav na automobil, pa je stoga studija izazvala posebno zanimanje stručnjaka širom svijeta. Supredsjedatelj OpenAI-a Elon Musk vjeruje da je stvaranje "etičke" umjetne inteligencije pitanje razvijanja jasnih smjernica ili politika koje će voditi razvoju programa. Političari ga postupno slušaju: na primjer, Njemačka je stvorila prva svjetska etička načela za autonomne automobile. Čak i Googleova abeceda AI DeepMind sada ima odjel za etiku i javni moral.

Drugi stručnjaci, uključujući tim istraživača sa sveučilišta Duke, vjeruju da je najbolji način za napredak stvaranje "općeg okvira" koji opisuje kako će AI donositi etičke odluke u datoj situaciji. Oni vjeruju da će ujedinjenje kolektivnih moralnih stavova, kao u istom Moralnom stroju, umjetnu inteligenciju u budućnosti učiniti još moralnijom od modernog ljudskog društva.

Kritika "moralnog stroja"

Bilo kako bilo, trenutno načelo "mišljenja većine" još uvijek nije pouzdano. Na primjer, jedna skupina ispitanika može imati pristranosti koje nisu zajedničke svima ostalima. Rezultat će biti da AI s točno istim skupom podataka mogu donijeti različite zaključke na temelju različitih uzoraka tih informacija.

Za profesora Jamesa Grimmelmanna, koji se specijalizirao za dinamiku između softvera, bogatstva i moći, sama ideja javnog morala izgleda pogrešno. "Nije u stanju podučavati etiku umjetne inteligencije, već je obdariti prividom etičkih standarda svojstvenih određenom dijelu stanovništva", kaže on. I sam Procaccia, kao što je gore spomenuto, priznaje da njihova istraživanja nisu ništa drugo nego uspješan dokaz koncepta. Međutim, uvjeren je da bi takav pristup mogao donijeti uspjeh cijeloj kampanji za stvaranje visoko moralne AI u budućnosti. "Demokracija bez sumnje ima niz nedostataka, ali kao jedinstveni sustav djeluje - čak i ako neki ljudi i dalje donose odluke s kojima se većina ne slaže."

Vasilij Makarov

Preporučeno: