Google Ne želi Stvoriti Skynet Jednog Dana, Pa Stvara Prekidač Za AI - Alternativni Prikaz

Google Ne želi Stvoriti Skynet Jednog Dana, Pa Stvara Prekidač Za AI - Alternativni Prikaz
Google Ne želi Stvoriti Skynet Jednog Dana, Pa Stvara Prekidač Za AI - Alternativni Prikaz

Video: Google Ne želi Stvoriti Skynet Jednog Dana, Pa Stvara Prekidač Za AI - Alternativni Prikaz

Video: Google Ne želi Stvoriti Skynet Jednog Dana, Pa Stvara Prekidač Za AI - Alternativni Prikaz
Video: PORUKA IZ NEMAČKE Pošto Srbija neće u NATO, Srbi se moraju prikazati kao zločinci! 2024, Srpanj
Anonim

Dvije su glavne suprotstavljene strane u pitanjima i raspravama o budućnosti umjetne inteligencije. U jednom se kutu nalaze kompanije poput Googlea, Facebooka, Amazona i Microsofta koji agresivno ulažu u tehnologiju kako bi AI sustave učinili pametnijima, a u drugom su veliki mislioci našeg vremena poput Elona Muska i Stephena Hawkinga koji vjeruju da je razvoj AI sličan "demonskoj čaroliji".

Jedna od najnaprednijih AI kompanija, DeepMind, u vlasništvu Googlea, stvorila je sigurnosne mjere u slučaju da osoba mora "preuzeti kontrolu nad robotom, čiji bi neuspjeh mogao dovesti do nepopravljivih posljedica". Možemo pretpostaviti da govorimo o … "ubiti sve ljude." Naravno, u stvarnosti poduzeta mjera nije nagovještaj moguće apokalipse, već je riječ o sigurnosnim mjerama povezanim sa pametnim robotima koji djeluju i koji će raditi u budućnosti u raznim tvornicama i pogonima.

Objavljeni dokument s receptima zajednički je rad DeepMind-a i Oxfordovog instituta za budućnost čovječanstva, koji se, kako i ime govori, bavi pitanjima koja će ovom čovječanstvu omogućiti da uđe u budućnost. Desetljećima je osnivač instituta Nick Bostrom vrlo živo govorio o mogućim opasnostima razvoja umjetne inteligencije i napisao više od jedne knjige na tu temu, u kojoj je raspravljao o posljedicama stvaranja superinteligentnih robota.

Vodič o kojem danas govorimo, nazvan "Sigurno onesposobljeni agenti", istražuje kako onemogućiti AI ako se napravi nešto što ljudski operater ne želi učiniti. Rad se sastoji od različitih izračuna i formula koje 99 posto nas najvjerojatnije neće razumjeti. Stoga, jednostavnije rečeno, govorimo o "crvenom gumbu" koji može onesposobiti AI.

Možda se smijete i pitate, ali pioniri robotike i AI gledaju iste znanstveno-fantastične filmove kao i mi. Oni u kojima su roboti nekad smislili kako zanemariti naredbu isključivanja. Dakle, sada ćemo biti spremni za to. Objavljeni dokument opisuje metode i rješenja kako bi se osiguralo da "uzdržavajući agent" (čitaj AI) ne može naučiti ignorirati ili spriječiti utjecaj vanjskog okruženja ili ljudskog operatora.

To može izgledati kao prekomjerno, posebno ako uzmete u obzir da je najnapredniji AI trenutno stvarno dobar samo u igrama na ploči. Međutim, Bostrom smatra da prije nego što počnemo stvarati AI razine ljudskog mozga, moraju se poduzeti odgovarajuće mjere:

"Čim umjetna inteligencija dosegne razinu čovjeka, očekuje se nagli skok u razvoju na mnogim područjima. Također, uskoro će sami AI stvoriti nove AI. Samo procjenite ove izglede i istodobno moguće opasnosti. Stoga je bolje pretjerati nego propustiti."

NIKOLAY KHIZHNYAK

Promotivni video: