Znanstvenici Su Predložili Način Kako Spriječiti Kraj Svijeta Zbog Robota U Budućnosti - Alternativni Prikaz

Znanstvenici Su Predložili Način Kako Spriječiti Kraj Svijeta Zbog Robota U Budućnosti - Alternativni Prikaz
Znanstvenici Su Predložili Način Kako Spriječiti Kraj Svijeta Zbog Robota U Budućnosti - Alternativni Prikaz

Video: Znanstvenici Su Predložili Način Kako Spriječiti Kraj Svijeta Zbog Robota U Budućnosti - Alternativni Prikaz

Video: Znanstvenici Su Predložili Način Kako Spriječiti Kraj Svijeta Zbog Robota U Budućnosti - Alternativni Prikaz
Video: Roboti USKORO preuzimaju SVE...?? 2024, Travanj
Anonim

Mnogi se boje ustanka robota u budućnosti, pozivajući da se zaustavi razvoj umjetne inteligencije kako bi se izbjegao negativan scenarij u budućnosti. No, u industriji koja je povezana s razvojem robotike uključen je ogroman broj ljudi i novca, tako da nitko neće zaustaviti razvoj takvih tehnologija. Možemo li se suočiti s apokalipsom zbog naših kreacija i postoji li način da spriječimo ustanak strojeva?

Science Alert je prije nekog vremena objavio članak stručnjaka iz svijeta znanosti koji su govorili o razvoju posebnog algoritma koji će pomoći spriječiti nekontrolirano ponašanje robota s umjetnom inteligencijom u budućnosti. Prema znanstvenicima, roboti jednostavno ne mogu naškoditi ljudima zbog ove metode.

Sami su znanstvenici svoj algoritam nazvali seldonskim. Ali kakvo je njegovo značenje? Algoritmi će moći analizirati neprihvatljivo ponašanje za strojeve i maksimalno će zaštititi ljude od negativnih radnji robota, ali algoritmi ne sadrže koncept dobrog i lošeg ponašanja, pa ne vjeruju svi stručnjaci u zaštitne funkcije algoritama.

Programeri novog sustava rekli su o radu algoritma pomoću jednog od primjera, a to je za kontrolu inzulinske pumpe pomoću automatiziranog sustava. Ako se količina inzulina u pacijentovoj krvi smanji na izuzetno nisku razinu, tada algoritmi sugeriraju radnje potrebne za spašavanje osobe.

Prije nekog vremena, brojni znanstvenici izrazili su zabrinutost zbog razvoja nuklearnog oružja temeljenog na umjetnoj inteligenciji. Ako će takvi sustavi donositi vlastite odluke, onda to može izazvati apokalipsu na Zemlji. Ne zaboravite na akcije hakera koji mogu hakirati takve sustave i nijedan zaštitni algoritam neće pomoći u ovom slučaju. Stoga se može smatrati da ne postoji idealna zaštita od prijetnji modernog svijeta na polju razvoja robota i umjetne inteligencije.

Preporučeno: