Opasno čovječanstvo: Zašto Nam Je Potrebna Inteligentna Umjetna Inteligencija? - Alternativni Prikaz

Sadržaj:

Opasno čovječanstvo: Zašto Nam Je Potrebna Inteligentna Umjetna Inteligencija? - Alternativni Prikaz
Opasno čovječanstvo: Zašto Nam Je Potrebna Inteligentna Umjetna Inteligencija? - Alternativni Prikaz

Video: Opasno čovječanstvo: Zašto Nam Je Potrebna Inteligentna Umjetna Inteligencija? - Alternativni Prikaz

Video: Opasno čovječanstvo: Zašto Nam Je Potrebna Inteligentna Umjetna Inteligencija? - Alternativni Prikaz
Video: NIJE LI PAMETNA TEHNOLOGIJA SUPER - David Icke u jednoj minuti razotkriju Umjetnu inteligenciju 2024, Svibanj
Anonim

Kad je Norbert Wiener, otac kibernetike, napisao svoju knjigu Ljudska upotreba ljudskih bića 1950. godine, vakuumske cijevi i dalje su bile osnovni elektronički blokovi, a u stvari je bilo samo nekoliko računala. Međutim, on je zamišljao budućnost kakvu sada vidimo s neviđenom preciznošću, zabludujući samo manje detalje.

Prije bilo kojeg drugog filozofa umjetne inteligencije, shvatio je da AI neće samo oponašati - i zamijeniti - ljudska bića u mnogim vrstama intelektualne aktivnosti, nego će i promijeniti ljude u tom procesu. "Mi smo samo virovi u rijeci stalno tekuće vode", napisao je. "Mi nismo nešto što samo živi, mi smo modeli koji ovjekovječuju sebe."

Na primjer, kada se pojave brojne primamljive mogućnosti, spremni smo platiti i prihvatiti male troškove vođenja tvrtke kako bismo pristupili novim mogućnostima. I vrlo brzo postajemo ovisni o novim alatima, gubimo mogućnost postojanja bez njih. Mogućnosti postaju potrebne.

Ovo je vrlo stara povijest evolucije, a mnoga poglavlja iz nje dobro su nam poznata. Većina sisavaca može sintetizirati vlastiti vitamin C, ali primati koji voće jedu su izgubili ovu ugrađenu sposobnost. Samo ponavljajući se obrasci koje nazivamo ljudima oslanjaju se na odjeću, prerađenu hranu, vitamine, špriceve, kreditne kartice, pametne telefone i internet. I sutra, ako ne danas, iz umjetne inteligencije.

Wiener je predvidio nekoliko problema s takvim stanjem koje su Alan Turing i drugi rani AI optimisti uglavnom previdjeli. Prava prijetnja, rekao je, bila je:

… da takve strojeve, iako su bespomoćni, ljudi mogu koristiti ili blokirati ljudska bića kako bi povećali kontrolu nad ostatkom rase, ili politički lideri mogu pokušati preuzeti kontrolu nad svojom populacijom političkim metodama, a ne samim strojevima, usko i ravnodušno prema čovjeku, kao da su ga izmislili mehanički.

Očito su ove opasnosti sada vrlo relevantne.

Na primjer, u medijima inovacije u digitalnom zvuku i videu omogućuju nam da plaćamo malu cijenu (u očima audiofila i filmaša) da se odmaknemo od analognih formata, a zauzvrat dobijemo krajnje jednostavan - previše jednostavan način reprodukcije snimaka s gotovo nikakvim ograničenjima.

Promotivni video:

Image
Image

Ali postoji ogroman skriveni trošak. Orwellovo ministarstvo istine postalo je prava prilika. AI-ove tehnike stvaranja gotovo nerazlučivih lažnih "zapisa" čine alate koje smo koristili u istragama zastarjelim posljednjih 150 godina.

Moramo samo napustiti kratku eru fotografskih dokaza i vratiti se u stari svijet u kojem su ljudsko pamćenje i povjerenje bili zlatni standard. Ili možemo razviti nove metode obrane i napada u borbi za istinu. Jedan od najuzbudljivijih nedavnih primjera jest činjenica da je mnogo jeftinije uništiti ugled nego zaraditi i zaštititi isti ugled. Wiener je ovaj fenomen shvatio vrlo široko: "Dugoročno gledano, neće biti razlike između naoružavanja sebe i naoružavanja neprijatelja." Era informacija postala je i doba dezinformacija.

Što možemo učiniti? Ključno je isto Wienerovo opažanje da su "ti strojevi" sami po sebi bespomoćni. Stvaramo alate, a ne kolege, a stvarna prijetnja je da ne vidimo razliku.

Umjetna inteligencija u svom sadašnjem obliku parazitira na ljudsku inteligenciju. Vrlo bezgrešno posjeduje sve što su stvorili ljudi i crta obrasce - uključujući i naše najtajnije navike. Ti strojevi još nemaju ciljeve ili strategije, nisu sposobni za samokritiku i inovacije, oni proučavaju samo naše baze podataka, bez vlastitih razmišljanja i ciljeva.

Oni, kako kaže Wiener, bespomoćni nisu u smislu da su okovani ili imobilizirani, ne, oni uopće nisu agenti - nemaju sposobnost "djelovanja od uzroka", kako bi to rekao Kant.

Dugoročno je "snažno AI" ili opća umjetna inteligencija u principu moguće, ali nije poželjno. Čak i ograničeniji AI koji je danas moguć u praksi neće biti zlo. Ali ona predstavlja prijetnju - dijelom i zato što se može pogriješiti za moćni AI.

Koliko je danas snažna inteligencija?

Jaz između današnjih sustava i znanstvenofantastičnih sustava koji preplavljuju maštu ljudi i dalje je ogroman, mada ga mnogi ljudi, i amateri i profesionalci, imaju tendenciju podcjenjivati. Pogledajmo IBM-ov Watson koji bi u naše vrijeme mogao biti ugledan.

Ovo superračunalo rezultat je izuzetno velikog istraživanja i razvoja (istraživanja i razvoja) koji je uključivao mnoge ljude i dizajnersku inteligenciju kroz mnoga stoljeća, a koristi tisuće puta više energije od ljudskog mozga. Njegova pobjeda u Jeopardyju! bio je pravi trijumf što su omogućila formulirana ograničenja Jeopardyjevih pravila! Ali čak su i ta pravila morala biti revidirana kako bi mogao sudjelovati. Morao sam se odreći malo svestranosti i dodati humanost da bih napravio show.

Watson je loša tvrtka, unatoč pogrešnim oglasima IBM-a koji obećavaju AI sposobnost razgovora na obje razine, a čineći Watsona vjerodostojnim višestrukim agentom slično će napraviti kalkulator Watson. Watson može biti dobar računalni slučaj za takvog agenta, nego mozak ili amigdala, a ne um - u najboljem slučaju podsustav posebne namjene koji služi kao podrška, ali ne i gotovo sustav za planiranje i formuliranje ciljeva na temelju primljenog razgovora.

Zašto bismo željeli stvoriti misaonog i kreativnog agenta iz Watsona? Možda nas je Turingova sjajna ideja - poznati Turingov test - namamio u zamku: postali smo opsjednuti stvaranjem barem iluzije stvarne osobe koja sjedi pred ekranom, zaobilazeći „zloslutnu dolinu“.

Opasnost je da od kada je Turing predstavio svoj zadatak - koji je prije svega bio zadatak prevariti suce - tvorci AI pokušali su ga ostvariti smiješnim humanoidnim lutkama, "crtanim" verzijama koje će šarmirati i razoružati neupućene. ELIZA Josepha Weisenbauma, prvi chatbot, bio je sjajan primjer stvaranja takve iluzije, ali s krajnje jednostavnim algoritmom koji bi mogao uvjeriti ljude da imaju iskrene i iskrene razgovore s drugim ljudima.

Brinuo se zbog lakoće s kojom su ljudi spremni ovo vjerovati. A ako imamo jednu stvar iz godišnjeg Lebner Prize Limited Turing Testa, to je da čak i najpametniji ljudi koji nisu upućeni u računalno programiranje lako padaju na ove jednostavne trikove.

Stav ljudi u AI prema takvim tehnikama kreće se od presudnog do nagrađivanja, a konsenzus je da ti trikovi nisu vrlo duboki, ali mogu biti korisni. Promjena u stavu koja bi bila vrlo dobrodošla bilo bi iskreno priznanje da su androidi oslikani za lutke lažne reklame koje treba ocjenjivati, a ne poticati.

Kako se to može postići? Jednom kada shvatimo da ljudi počinju donositi odluke o životu i smrti slijedeći „savjete“AI sustava, čije je unutarnje djelovanje gotovo neshvatljivo, vidjet ćemo dobar razlog za one koji potiču ljude da vjeruju takvim sustavima, da se počnu oslanjati na norme morala i zakona.

Sustavi umjetne inteligencije vrlo su moćan alat. Toliko moćan da čak i stručnjaci imaju dobar razlog da ne vjeruju vlastitoj prosudbi kad postoje „presude“zastupljene tim alatima. Ali ako će ovi korisnici alata imati koristi, financijski ili na neki drugi način, od popularizacije tih alata, oni moraju biti sigurni da znaju kako to učiniti s potpunom odgovornošću, maksimalnom kontrolom i opravdanjem.

Licenciranje i odobravanje operatora takvih sustava - baš kao što licenciramo ljekarnike, dizalice dizalica i ostale profesionalce čije pogreške i pogrešne presude mogu imati strašne posljedice - možda će, uz podršku osiguravajućih društava i drugih organizacija, obvezati tvorce AI sustava da idu dugim putem tražeći slabosti i nedostatke svojih proizvoda, a također obučite one koji će raditi s njima.

Može se zamisliti vrsta obrnutog Turingovog testa u kojem će sudac biti predmet ocjene; dok ne nađe slabost, kršenje granica, praznine u sustavu, neće dobiti dozvolu. Takav sudac će trebati ozbiljnu obuku za dobivanje certifikata. Nagon za pripisivanjem predmetu ljudske sposobnosti razmišljanja, kao što to obično radimo pri susretu s inteligentnim agentom, vrlo je, vrlo jak.

U stvari, sposobnost odupiranja porivu da se vidi nešto humanizirano je čudna stvar. Mnogi će ljudi njegovati takav talent sumnjivim, jer čak i najpragmatičniji korisnici sustava povremeno su "prijateljski" raspoloženi za svoje alate.

Bez obzira koliko pažljivo AI dizajneri odlučili ukloniti lažne "ljudske" pretenzije u svojim proizvodima, trebali bismo očekivati procvat naljepnica, zaobilaznih smetnji i podnošljivih izobličenja stvarnog "razumijevanja" oba sustava i njihovih operatora. Na isti način na koji se na televiziji oglašavaju droge s dugim popisom nuspojava, ili se alkohol oglašava s obiljem sitnog tiska sa svim upozorenjima koja zahtijevaju zakon, tako da će se programeri umjetne inteligencije pridržavati zakona, ali biti sofisticirani u upozorenjima.

Zašto nam je potrebna umjetna inteligencija?

Ne trebaju nam umjetno svjesni agenti. Postoji mnoštvo prirodnih svjesnih agenata koji su dovoljni za izvršavanje bilo kojeg zadatka za profesionalce i povlaštene pojedince. Trebamo pametne alate. Alat nema prava i ne bi trebao imati osjećaje koji mogu biti povrijeđeni ili zlouporabljeni.

Jedan od razloga da se ne postave umjetno svjesni agensi je taj što, iako mogu postati autonomni (i u principu mogu biti jednako autonomni, samopoboljšavajući se ili samo-kreirajući kao i svaka osoba), oni ne smiju - bez posebnog odobrenja - dijeliti s našim prirodni svjesni uzročnici, naša ranjivost ili naša smrtnost.

Daniel Dennett, profesor filozofije na Sveučilištu Tufts, jednom je izazvao studente u radionici o umjetnim agentima i autonomiji: Dajte mi specifikacije robota koji može potpisati ugovor s vama - ne surogat u vlasništvu druge osobe, već sam od sebe. Nije stvar u razumijevanju zašto ili manipuliranju olovkom na papiru, već u posjedovanju i zasluženom posjedovanju pravnog statusa i moralne odgovornosti. Mala djeca ne mogu potpisati takve ugovore, kao i osobe s invaliditetom, čiji se pravni status obvezuje na starateljstvo i skrbnike nameću.

Problem s robotima koji bi mogli postići takav uzvišen status jest taj što su, poput Supermana, previše ranjivi da bi mogli postavljati takve tvrdnje. Ako odbiju, što će se dogoditi? Koja će biti kazna za kršenje obećanja? Hoće li biti zatvoreni u kavezu ili odvojeni? Zatvor za umjetnu inteligenciju neće biti nezgodan ako prvo ne napunimo žeđ za slobodom koju AI ne može zanemariti ili onemogućiti. Demontaža AI neće uništiti podatke koji su pohranjeni na njegovom disku i softveru.

Jednostavnost digitalnog snimanja i prijenosa podataka - proboj koji je softveru i podacima omogućio da postignu, u stvari, besmrtnost - čini robote neranjivima. Ako se ne čini očiglednim, razmislite o tome kako bi se promijenila moral ljudi ako bismo svaki tjedan mogli podržavati ljude. Skočiti s mosta bez gumene trake u nedjelju nakon rezervne kopije u petak može biti nepristojna odluka, a snimke vaše prerane smrti možete pogledati kasnije.

Zato ne stvaramo svjesne - htjeli bismo stvoriti - humanoidne agense, već sasvim novu vrstu stvorenja, neke orkule, nesvjesno, bez straha od smrti, bez ometanja u ljubavi i mržnji, bez osobnosti: zrcala istine koja će gotovo sigurno biti zaražena laži.

Ljudska upotreba ljudskih bića uskoro će se promijeniti - još jednom - zauvijek, ali ako preuzmemo odgovornost za svoju evolucijsku putanju, možemo izbjeći nepotrebne opasnosti.

Ilya Khel