Da Bi Izbjegla Smrt, čovječanstvo Mora Zatvarati Umjetnu Inteligenciju - Alternativni Prikaz

Sadržaj:

Da Bi Izbjegla Smrt, čovječanstvo Mora Zatvarati Umjetnu Inteligenciju - Alternativni Prikaz
Da Bi Izbjegla Smrt, čovječanstvo Mora Zatvarati Umjetnu Inteligenciju - Alternativni Prikaz

Video: Da Bi Izbjegla Smrt, čovječanstvo Mora Zatvarati Umjetnu Inteligenciju - Alternativni Prikaz

Video: Da Bi Izbjegla Smrt, čovječanstvo Mora Zatvarati Umjetnu Inteligenciju - Alternativni Prikaz
Video: Treći element S6E31: Umjetna inteligencija - kraj ljudskog roda? 2024, Svibanj
Anonim

Superinteligentna računala ili roboti koji prijete postojanju ljudskog roda omiljeni su zaplet znanstvene fantastike. U stvarnosti, prema znanstvenicima, takav scenarij sudbonosnog dana može se spriječiti samo stvaranjem virtualnog "zatvora" koji sadrži umjetnu inteligenciju (AI). A to se mora učiniti prije nego što nauči biti svjestan i poboljšati se.

Ako ovog dženaze izbacite iz boce, onda se iz proročice koja rješava naše probleme može pretvoriti u apokaliptičnu prijetnju, kaže Roman Yampolsky, znanstvenik sa Sveučilišta u Louisvilleu u Kentuckyju koji radi na području računarske znanosti. Uvjeti u kojima će se AI nalaziti moraju se pažljivo isplanirati tako da se ne mogu osloboditi prijetnji, podmićivanja, iskušenja ili hakiranja računala.

"On može izmisliti mnogo načina utjecaja, izbiti složenu socijalno-inženjersku kombinaciju i koristiti postojeće hardverske komponente u svrhe koje ne možemo ni zamisliti", vjeruje Yampolsky. - Takav softver ima neograničene mogućnosti za zarazu računala i mreža. AI može pronaći načine da utječe na ljudsku psihu, podmićiva ili ucjenjuje ljude koji su u kontaktu s tim."

Nastanak novog područja znanstvenog istraživanja koje se bavi problemom stvaranja "zatvora" za umjetnu inteligenciju ima dodatne koristi. Ove su studije vrlo korisne za poboljšanje računalne sigurnosti i kriptografije, siguran je Yampolsky. Njegovi su prijedlozi podrobno opisani u ožujkovom broju akademskog časopisa Journal of Consciousness Studies.

Kako postaviti zamku za Skynet

Za početak, možete umetnuti inteligenciju u "virtualni stroj". Pustite ga da radi unutar normalnog operativnog sustava - ograničenje AI pristupa softveru i hardveru domaćeg računala učinit će ga mnogo bezopasnijim. U svakom slučaju, pametni AI neće moći slati tajne poruke svojim ljudskim pristalicama, tukući Morseov kôd s ventilatorima hlađenja.

Stavljanje umjetne inteligencije u računalo bez pristupa internetu dobar je način da se spreči AI-ovi podmukli planovi zaštite Zemlje od vas i mene. U slučaju bilo kojeg drugog kvara, istraživači uvijek mogu usporiti misaoni proces AI usporavanjem brzine obrade računala, redovitim pritiskom na tipku za resetiranje ili isključivanjem AI iz napajanja.

Promotivni video:

Te su mjere sigurnosti dizajnirane za borbu s visoko inteligentnim i opasnim računalnim virusima, no koliko su zapravo učinkovite, nagađaju.

Catch-22 (roman američkog pisca J. Hellera; otprilike Mixednews) je da ne možemo provesti cjelovito testiranje svojih ideja dok se ne završi razvoj AI. No, da bi AI bio siguran, potrebno je razviti niz odgovarajućih mjera, kaže Yampolsky. "Najbolja je mogućnost nametnuti ograničenja upotrebi AI sustava, a zatim po potrebi promijeniti ta ograničenja u skladu sa sve većim mogućnostima AI."

Image
Image

Znanstvenik Roman Yampolsky predložio je da se koristi znak "@" ili drugi znakovi koji se danas koriste za označavanje zračenja ili biološke prijetnje kako bi ukazali na prisutnost opasnosti povezane s umjetnom inteligencijom.

Nikada ne stavljajte ljudskog zaštitara na vozilo

Tijekom naizgled nevine razgovore sa zaštitarom, ništa neće spriječiti AI da koristi psihološke tehnike poput prijateljstva ili ucjene. Osoba se može podmititi obećavajući mu savršeno zdravlje, besmrtnost ili čak obećanje da će vratiti rodbinu i prijatelje s drugog svijeta. Ili postići bilo što prijetnjama.

Najsigurniji način komunikacije s AI-om jest omogućiti mu da prilikom rješavanja određenog znanstvenog ili tehničkog problema odabere odgovor iz mnogih dostupnih opcija, objašnjava Yampolsky. Ovo će vam pomoći zadržati super pametni proročica na kratkom povodcu.

Mnogi istraživači vjeruju da, usprkos svim mjerama opreza, neće uspjeti zadržati AI smartass na neodređeno vrijeme. Najnoviji eksperiment Eliezera Yudkowskog, istraživača Instituta za singularnost stvaranja umjetne inteligencije, pokazao je da čak i inteligencija na razini čovjeka može prevariti osobu i „pobjeći“iz zatvora.

Ipak, Yampolsky inzistira na tome da se AI drži u strogoj izolaciji - još je bolje nego odustati i dati mu potpunu slobodu. Ali ako razvoj AI dostigne točku u kojoj može manipulirati osobom pomoću podsvijesti (predviđanje budućnosti), telepatije ili telekineze, posljedice će biti nepredvidive.

"Ako će se takav AI poboljšati i dostići razinu koja znatno prelazi mogućnosti ljudske inteligencije, posljedice se ne mogu ni zamisliti", upozorava Yampolsky.