Umjetna Inteligencija: Opasan Neprijatelj Ili Ljubazni Pomagač - Alternativni Prikaz

Umjetna Inteligencija: Opasan Neprijatelj Ili Ljubazni Pomagač - Alternativni Prikaz
Umjetna Inteligencija: Opasan Neprijatelj Ili Ljubazni Pomagač - Alternativni Prikaz

Video: Umjetna Inteligencija: Opasan Neprijatelj Ili Ljubazni Pomagač - Alternativni Prikaz

Video: Umjetna Inteligencija: Opasan Neprijatelj Ili Ljubazni Pomagač - Alternativni Prikaz
Video: Treći element S6E31: Umjetna inteligencija - kraj ljudskog roda? 2024, Svibanj
Anonim

Primjena umjetne inteligencije (AI) u svakodnevnom životu brzo dobiva na značaju, ali taj trend sve više izaziva zabrinutost kod stručnjaka. Djelatnici NYU-a pripremili su upozoravajuću bilješku o rizicima upotrebe I. I. Većinom su se autori usredotočili na etička i društvena pitanja, kao i na nedostatak propisa. Izvještaj grupe AI Now kaže malo novoga, ali u svjetskoj se praksi sve više postavlja pitanje potrebe za ograničenjem umjetnog razmišljanja.

Gotovo svi vizionari tehnološkog napretka govorili su o potencijalnim prijetnjama AI-ju. Stephen Hawking u studenom prošle godine izrazio je glavna strahova koja su pratila razmišljanja o razvoju tehnologije. Prema njegovom mišljenju, računala će se prije ili kasnije naučiti reproducirati. Biološka bića vjerojatno će izgubiti na silicijskoj inteligenciji i u mentalnim sposobnostima i u pogledu prilagodljivosti okolišu, posebno na drugom planetu. Prije ili kasnije pametni roboti smatrat će ljude zastarjelim oblikom i htjet će ih se riješiti.

Hawkingove riječi i dalje zvuče kao horor priča, odigrane desetine puta u filmovima i knjigama, ali čak i oni koji rade na implementaciji pametnih sustava postaju sve strašniji za budućnost s AI-om, iako ima i onih koji takve strahove smatraju preuranjenim. „Bojati se razvoja AI danas je poput zabrinutosti zbog prevelike naseljenosti Marsa“, rekao je Andrew Ng, voditelj Google Brain-a. Međutim, nije uvjerio sve.

Image
Image

Među najvećim fobijama povezanim s uvođenjem računala u sve sfere života, valja spomenuti tri. Prvo, računalni um koristit će se kao oružje koje će destruktivnom snagom značajno nadmašiti čak i nuklearno oružje. Drugo je da će AI porobiti ljude. Treće, kao i svaka ljudska tvorevina, i računalo je sklono pogreškama. Sve tri točke mogu se detaljnije raspraviti.

21. kolovoza 2017. vodeći stručnjaci na području istraživanja i primjene umjetne inteligencije, uključujući čelnike tvrtki poput SpaceX i Deep Mind, uputili su otvoreno pismo UN-u. U tekstu su upozorili svjetsku zajednicu da ne razvija smrtonosno autonomno oružje, bilo da su roboti ili drugi mehanizmi dizajnirani da ubiju neprijatelja. Autori dokumenta skrenuli su pozornost na kobne posljedice upotrebe takvog oružja. S njegovom fenomenalnom učinkovitošću, fer je pitati u čije će ruke pasti. Mogu ga koristiti i uski krug elita i teroristi.

Autori pisma pozvali su kontrolnu organizaciju, a s njom i znanstvenu zajednicu, da predstave opseg štetne uporabe AI. Odgovornost s kojom se osoba suočava za svoje stvaranje stvara obvezu da ozbiljno radi na sprječavanju rizika. Osim zakona, njihovi tvorci također moraju ograničiti moć robota koji će morati ekstremno zagonetiti kako ugasiti strojeve.

Image
Image

Promotivni video:

Politička zlouporaba elektroničkih sustava već se pokazala radom društvenih mreža i algoritama za analizu podataka. U proljeće ove godine u svijetu je odjeknuo skandal s Cambridge Analyticom. Njeni su stručnjaci proveli dubinsku analizu korisničkih podataka i postavili oglase na Facebook, prilagođeni pojedinačno svakoj osobi.

Djelatnici tvrtke ne samo da su prešli etički okvir, već su primijenili i moderne tehnologije, čiji je rad nemoguće analizirati. Učinkovitost strojnog učenja ponavlja se među vodećim matematičarima. Jednostavno priznaju da su zadivljeni izvanrednim uspjehom računalnih programa, ali potpuno nisu u stanju razumjeti rad složenog sustava. U Mijanmaru u travnju ove godine, postovi na Facebooku također su izazvali nemire među masama, ali za razliku od Sjedinjenih Država, gdje su izvedeni protesti, u azijskoj državi dogodio se masakr u kojem je ubijeno nekoliko stotina ljudi. Manipulacije ogromnog broja ljudi su stvarnost i roboti ovdje mogu igrati s nama okrutnu šalu.

Image
Image

Vrijedi se prisjetiti istog Facebooka, gdje su lansirani chatovi utemeljeni na AI. Virtualni asistenti osposobljeni su za vođenje dijaloga sa sugovornikom. S vremenom su se roboti razlikovali od stvarnih ljudi, a zatim su autori odlučili robove spojiti. S vremenom su roboti počeli skraćivati leksičke strukture i razmjenjivati nesklad. Mediji su napuhali senzaciju vijesti, a oni kažu da su se "strojevi pobunili". No, ako se prestraše pretjerivanja novinara, pošteno je priznati da u slučaju kada strojevi počnu međusobno komunicirati, osoba to možda neće primijetiti. A kako će tamo živjeti svoj vlastiti život - nitko ne zna.

Sve složenija struktura računalnog uma svakim danom udaljava nas od razumijevanja principa njegova rada. No, iako većina algoritama radi svoj posao, čak i danas su složeni strojevi daleko od idealnih i čine pogreške. Za daljnji razvoj AI važno je shvatiti ne toliko njegove snage koliko ranjivosti. Na tome je fokusiran veliki broj znanstvenih skupina, u jednoj od njih radi i specijalist MIT-a Anish atali. Prije samo nekoliko dana rekao je novinarima o najčešćim pogreškama u sustavima prepoznavanja slike.

Njegove kolege demonstrirale su predmete na stroju i ustanovile da se elektronički vid često pojedinačni objekti pogrešno percipiraju. Računalo je moglo nazvati bejzbol šalicu kave i 3D kornjaču s printanim vojskom. Grupa je već prikupila oko 200 predmeta koji algoritme dovode u zabludu.

Image
Image

Umjetna inteligencija, umjesto da opaža objekt kao cjelinu, koncentrirana je na njegove pojedinačne parametre. AI teže učiti iz "savršenog" uzorka. Suočen s fenomenima koji nisu u skladu s normama, on ne može uvijek napustiti uobičajeni postupak obrade. Umjesto da prizna svoju nesposobnost obrade slike, on nastavlja pokušavati pročitati sliku i to dovodi do ponekad smiješnih rezultata. Umjesto oblika kornjače, elektronički mozak pokušao je očitati njenu teksturu, sličnu kamuflaži. Iz potpuno istog razloga, autopiloti e-automobila još uvijek nisu 100% pouzdani. Automobilu je teško vidjeti siluetu i pretpostaviti da se sastoji od zasebnih elemenata.

A ako se u narednim godinama neki nedostaci mogu otkloniti, nema garancije da hakeri neće iskoristiti ranjivost. Hakeri elektroničkih uređaja danas predstavljaju gotovo glavni uzrok straha. Mali tim programera ne samo da može dobiti pristup osobnim podacima, već i konfigurirati autonomne sustave, preuzevši kontrolu nad alatima kolosalne moći. I tada ćemo svi biti u nevolji. No, glavni zaključak koji se može izvući je možda tradicionalni - ne treba se bojati automobila, već ljudi.

Aleksandar Lavrenov

Preporučeno: