Razmišljanje Kao Osoba: što će Se Dogoditi Ako Stroj Obdarite Teorijom Svijesti - Alternativni Prikaz

Sadržaj:

Razmišljanje Kao Osoba: što će Se Dogoditi Ako Stroj Obdarite Teorijom Svijesti - Alternativni Prikaz
Razmišljanje Kao Osoba: što će Se Dogoditi Ako Stroj Obdarite Teorijom Svijesti - Alternativni Prikaz

Video: Razmišljanje Kao Osoba: što će Se Dogoditi Ako Stroj Obdarite Teorijom Svijesti - Alternativni Prikaz

Video: Razmišljanje Kao Osoba: što će Se Dogoditi Ako Stroj Obdarite Teorijom Svijesti - Alternativni Prikaz
Video: Istina i kukolj 2024, Srpanj
Anonim

Prošlog mjeseca, tim samoigranih AI igrača pretrpio je spektakularan poraz protiv profesionalnih igrača u esportu. Show show, koji se održao u sklopu međunarodnog svjetskog prvenstva Dota 2, pokazao je da timsko strateško razmišljanje i dalje omogućava osobi da preuzme prednost nad autom.

Uključeni AI bili su nekoliko algoritama koje je razvio OpenAI, a čiji je Elon Musk jedan od osnivača. Kolektiv digitalnih igrača, nazvan OpenAI Five, naučio je samostalno igrati Dota 2, pokušajem i pogreškama, natječući se jedan s drugim.

Za razliku od iste šahovske ili društvene logičke igre Go, popularna i brzo rastuća multiplayer igra Dota 2 smatra se puno ozbiljnijim poljem za testiranje umjetne inteligencije. Ukupna poteškoća u igri je samo jedan od faktora. Nije dovoljno samo kliknuti mišem i izdati naredbe liku koji kontrolira. Za pobjedu je potrebno imati intuiciju i razumijevanje što od sljedećeg trenutka očekivati od protivnika, kao i djelovati adekvatno u skladu s ovim skupom znanja kako bismo se udružili u zajedničkim naporima prema zajedničkom cilju - pobjedi. Računalo nema ovaj skup mogućnosti.

Do danas, čak ni najistaknutiji računalni algoritam dubokog učenja nema strateško razmišljanje neophodno za razumijevanje ciljeva iz zadataka svog protivnika, bilo da je to drugi AI ili čovjek.

Prema Wang-u, da bi AI uspio, treba imati duboku komunikacijsku vještinu koja potječe od najvažnijeg kognitivnog obilježja osobe - prisutnosti inteligencije.

Model mentalnog stanja kao simulacija

Promotivni video:

U dobi od četiri godine djeca obično počinju razumijevati jednu osnovnu društvenu osobinu: njihovi umovi razlikuju se od misli drugih. Počinju shvaćati da svi imaju ono u što vjeruju, svoje želje, emocije i namjere. I što je najvažnije, zamišljajući sebe na mjestu drugih, oni mogu početi predviđati daljnje ponašanje ovih ljudi i objasniti ih. Na neki način, njihov mozak počinje stvarati višestruke simulacije sebe unutar sebe, zamjenjujući se umjesto drugih ljudi i smještajući se u drugo okruženje.

Model mentalnog stanja važan je u razumijevanju sebe kao osobe, a također igra važnu ulogu u društvenoj interakciji. Razumijevanje drugih ključ je učinkovite komunikacije i postizanja zajedničkih ciljeva. Međutim, ova sposobnost može biti pokretačka snaga lažnih uvjerenja - ideja koje nas vode od objektivne istine. Čim se oslabi sposobnost korištenja modela mentalnog stanja, na primjer, to se dogodi kod autizma, tada se prirodne „ljudske“vještine, poput sposobnosti objašnjavanja i zamišljanja, također pogoršavaju.

Prema dr. Alanu Winfieldu, profesoru robotike na Sveučilištu Zapadne Engleske, model mentalnog stanja ili "teorija uma" je ključna značajka koja će jednog dana omogućiti AI da "razumije" ljude, stvari i druge robote.

Umjesto metoda strojnog učenja, u kojima više slojeva neuronskih mreža izvlači pojedinačne podatke i "proučava" ogromne baze podataka, Winston predlaže drugačiji pristup. Umjesto da se oslanja na učenje, Winston predlaže unaprijed programiranje AI-ja s internim modelom sebe i okoline koji će odgovoriti na jednostavna pitanja "što ako?"

Na primjer, zamislite da se dva robota kreću uskim hodnikom, njihov AI može simulirati rezultate daljnjih radnji koje će spriječiti njihov sudar: skrenite ulijevo, udesno ili nastavite ravno. Ovaj unutarnji model će u osnovi djelovati kao "mehanizam posljedica", djelujući kao svojevrsni "zdrav razum" koji će pomoći usmjeriti AI na sljedeće ispravne radnje predviđajući budući razvoj situacije.

U studiji objavljenoj početkom ove godine, Winston je demonstrirao prototipa robota sposobnog za postizanje takvih rezultata. Predviđajući ponašanje drugih, robot je bez sudara uspješno prošao kroz hodnik. Zapravo, to nije iznenađujuće, napominje autor, ali „pažljivom“robu, pomoću simuliranog pristupa rješavanju problema, trebalo je 50 posto duže da ispuni koridor. Ipak, Winston je dokazao da njegova metoda interne simulacije djeluje: "Ovo je vrlo moćno i zanimljivo polazište u razvoju teorije umjetne inteligencije", zaključio je znanstvenik.

Winston se nada da će na kraju AI dobiti sposobnost opisivanja, mentalnog reproduciranja situacija. Interni model sebe i drugih omogućit će takvom AI simulaciju različitih scenarija, i što je još važnije, definiranje specifičnih ciljeva i ciljeva za svaki od njih.

To se značajno razlikuje od algoritama dubokog učenja koji, u načelu, nisu u stanju objasniti zašto su došli do ovog ili onog zaključka prilikom rješavanja problema. Model dubokog učenja s crnom kutijom zapravo je pravi problem u povjerenju takvim sustavima. Ovaj problem može postati posebno akutan, na primjer, kada se razvijaju roboti za njegu u bolnicama ili za starije osobe.

AI naoružan modelom mentalnog stanja mogao bi se staviti u cipele svojih gospodara i ispravno razumjeti što se od njega traži. Tada je mogao prepoznati prikladna rješenja i, objasnivši te odluke osobi, već bi ispunjavao zadatak koji mu je dodijeljen. Što je manje neizvjesnosti u odlukama, to će više povjerenja imati u takve robove.

Model mentalnog stanja u neuronskoj mreži

DeepMind koristi drugačiji pristup. Umjesto da unaprijed programiraju algoritam mehanizma posljedica, razvili su nekoliko neuronskih mreža koje pokazuju sličnost s modelom kolektivnog psihološkog ponašanja.

AI algoritam "ToMnet" može naučiti akcije promatranjem drugih neutronskih mreža. Sam ToMNet je skup triju neuronskih mreža: prva se temelji na osobitostima odabira drugih AI-a prema njihovim najnovijim radnjama. Drugi tvori opću koncepciju trenutnog raspoloženja - njihova uvjerenja i namjere u određenom trenutku. Zbirni rezultat rada dviju neuronskih mreža prima treća, koja predviđa daljnje akcije AI temeljene na situaciji. Kao i kod dubokog učenja, ToMnet postaje učinkovitiji jer stječe iskustvo slijedeći druge.

U jednom eksperimentu ToMnet je "gledao" kako tri AI agenta manevriraju u digitalnoj sobi, skupljajući šarene kutije. Svaka od tih AI imala je svoju posebnost: jedna je bila „slijepa“- nije mogla odrediti oblik i položaj u sobi. Drugi je bio "sklerotik": nije se mogao sjetiti njegovih posljednjih koraka. Treći je mogao i vidjeti i pamtiti.

Nakon treninga, ToMnet je počeo predviđati sklonosti svakog AI promatrajući njegove akcije. Na primjer, "slijepi" se neprestano kretao samo duž zidova. ToMnet se toga sjetio. Algoritam je također mogao ispravno predvidjeti buduće ponašanje AI i, što je još važnije, razumjeti kada je AI naišao na lažno predstavljanje okoline.

U jednom testu, tim znanstvenika programirao je jednu AI za "kratkovidnost" i promijenio izgled sobe. Agenti s normalnim vidom brzo su se prilagodili novom izgledu, ali kratkovidni je čovjek nastavio slijediti svoje izvorne rute, lažno vjerujući da je još uvijek u starom okruženju. ToMnet je brzo uočio ovu značajku i precizno predvidio ponašanje agenta, stavljajući se na svoje mjesto.

Prema dr. Alison Gopnik, razvojnoj psihologinji s kalifornijskog sveučilišta Berkeley, koja nije bila uključena u ove studije, ali koja je bila upoznata s nalazima, ovi rezultati pokazuju da neuronske mreže imaju nevjerojatnu sposobnost samostalnog učenja različitih vještina, promatranjem drugih. Istovremeno, prema mišljenju stručnjaka, još je rano reći da su ovi AI razvili umjetni model mentalnog stanja.

Prema dr. Joshu Tenebaumu iz Tehnološkog instituta u Massachusettsu, koji također nije bio uključen u studiju, ToMnetovo "razumijevanje" snažno je vezano za kontekst okruženja za učenje - istu sobu i specifične AI agente čija je zadaća bila prikupljanje kutija. Ovo ograničenje u određenom okviru čini ToMnet manje učinkovitim u predviđanju ponašanja u radikalno novim okruženjima, za razliku od iste djece koja se mogu prilagoditi novim situacijama. Algoritam se, prema riječima znanstvenika, neće nositi s modeliranjem postupaka potpuno različitog AI-ja ili osobe.

U svakom slučaju, rad Winstona i DeepMind pokazuje da računala počinju pokazivati rudimente „razumijevanja“jednih drugih, čak i ako je to razumijevanje još samo rudimentarno. I dok oni nastavljaju usavršavati ovu vještinu, razumijevajući se sve bolje i bolje, doći će vrijeme kada strojevi mogu razumjeti složenost i složenost naše vlastite svijesti.

Nikolaj Khizhnyak