Do 2040. Umjetna Inteligencija Može Revolucionirati Načela Nuklearne Sigurnosti - Alternativni Prikaz

Do 2040. Umjetna Inteligencija Može Revolucionirati Načela Nuklearne Sigurnosti - Alternativni Prikaz
Do 2040. Umjetna Inteligencija Može Revolucionirati Načela Nuklearne Sigurnosti - Alternativni Prikaz

Video: Do 2040. Umjetna Inteligencija Može Revolucionirati Načela Nuklearne Sigurnosti - Alternativni Prikaz

Video: Do 2040. Umjetna Inteligencija Može Revolucionirati Načela Nuklearne Sigurnosti - Alternativni Prikaz
Video: Treći element S6E31: Umjetna inteligencija - kraj ljudskog roda? 2024, Svibanj
Anonim

Nedavno objavljena studija korporacije RAND zaključila je da bi umjetna inteligencija (AI) do 2040. mogla radikalno promijeniti koncept nuklearnog odvraćanja.

Čini se da je AI sudbinski stroj malo vjerodostojan, no stvarni rizici AI po nuklearnu sigurnost leže u sposobnosti AI da natjeraju ljude na donošenje neopravdanih, potencijalno apokaliptičnih odluka.

Tijekom hladnog rata, koncept osiguranog međusobnog uništavanja održavao je nepostojan mir između supersila, tvrdeći da će svaki napad rezultirati razornim odmazdom. Kao rezultat toga, koncept HLG osigurao je stratešku stabilnost, trezveno djelujući na obje strane u njihovoj spremnosti za akcije koje bi se zapravo mogle razviti u atomski rat.

Publikacija RAND kaže da je AI u narednim desetljećima sasvim sposoban uništiti koncept zajamčenog međusobnog uništenja i time narušiti stratešku stabilnost našeg svijeta. Složeniji senzori čine vjerovatno da se „oružje odmazde“- na primjer, nuklearne podmornice i pokretne rakete - mogu identificirati i uništiti.

Narode bi mogli biti u iskušenju da traže sredstva prvog udara kao da je to prednost u odnosu na njihove rivale, čak i ako nemaju namjeru da napadnu prvi. To potkopava stabilnost u tome što čak i ako strana sposobna prvo napasti neće iskoristiti ovu priliku, njen protivnik ne može biti siguran u to.

"Veza između nuklearnog rata i AI nije nova, u stvari se priče isprepliću", kaže Edward Geist, koautor članka i pri RAND-u. "U početku su veliki dio AI istraživanja provedeni uz podršku vojske u ostvarenju njihovih ciljeva."

Kao primjer, naveo je "adaptivni eksperiment planiranog preživljavanja" proveden 1980-ih, koji je imao za cilj korištenje AI-a za kombiniranje inteligencije i ciljanja nuklearnog oružja.

U slučaju nesigurnosti, AI bi mogao poboljšati stabilnost strateške situacije, poboljšavajući točnost prikupljenih podataka i njegove analize.

Promotivni video:

Istraživači vjeruju da će AI u procesu razvoja postati manje sklon greškama u usporedbi s ljudima, što znači da će dugoročno biti faktor stabilnosti.

Vadim Tarabarko