Koje Opasnosti Od Neuronskih Mreža Podcjenjujemo? - Alternativni Prikaz

Sadržaj:

Koje Opasnosti Od Neuronskih Mreža Podcjenjujemo? - Alternativni Prikaz
Koje Opasnosti Od Neuronskih Mreža Podcjenjujemo? - Alternativni Prikaz

Video: Koje Opasnosti Od Neuronskih Mreža Podcjenjujemo? - Alternativni Prikaz

Video: Koje Opasnosti Od Neuronskih Mreža Podcjenjujemo? - Alternativni Prikaz
Video: 5G mreža - Video koji će vas dobro zamisliti ! 2024, Svibanj
Anonim

Jeste li ikad na ulici sreli osobu koja bi bila jedna na drugu poput vas? Odjeća, lice, hod, način komunikacije, navike potpuno su identične vašim. To je poput skeniranja i ispisa na pisaču. Zvuči pomalo jezivo, zar ne? Sad zamislite da ste vidjeli video u kojem takva osoba govori nešto o sebi. U najboljem ćete se slučaju pokušati sjetiti kad ste hodali na takav način da se niste sjećali ničega, ali to biste mogli reći kamerom. Iako sve to zvuči kao jednostavno zaključivanje, ali tehnologija je već vrlo blizu stvaranju takvih ljudi. Oni već postoje, ali uskoro će ih biti još mnogo.

Odakle dolazi lažni?

Sada je već previše stvari koje se obično nazivaju laži. Oni su svugdje. Možete ih pronaći na fotografijama, u vijestima, u proizvodnji robe i u informacijskim uslugama. Lakše je reći gdje nema pojava popraćenih ovom riječi. Dok se možete boriti protiv njih. Možete proučiti porijeklo fotografije, provjeriti prepoznatljive značajke markiranog proizvoda od lažne i dvostruko provjeriti vijesti. Iako su vijesti zasebna tema.

Danas potrošač sadržaja ne želi čekati i traži trenutnu produkciju od svog tvorca, ponekad ga uopće ne zanima kvaliteta, glavno je brzo. Tu nastaju situacije kada je netko nešto rekao, a drugi su, ne provjeravajući, oduzeli to sa svojih web stranica i novina. U nekim je slučajevima potrebno dugo da se ova lopta vrati natrag i dokaže da je sve bilo pogrešno.

Nema smisla objašnjavati zašto se to sve radi. S jedne strane postoje oni koji se samo žele nasmijati situaciji, s druge strane oni koji stvarno nisu znali da griješe. Zasebno mjesto, otprilike u sredini, zauzimaju oni za koje je posve profitirano. To mogu biti interesi utjecaja na različitim razinama, uključujući političku. Ponekad je to svrha stvaranja profita. Primjerice, sijanje panike na burzi i provođenje profitabilnih transakcija s vrijednosnim papirima. Ali to je često zbog neprijateljstva prema osobi (tvrtki, proizvodu itd.) Kako bi ga omalovažavali. Jednostavan primjer je „padanje“u ocjene filma ili ustanove koje nekome nisu poželjne. Naravno, za to je potrebna vojska onih koji neće ići voljeti (ponekad čak i botovi), ali to je druga priča.

Što je duboko učenje?

Promotivni video:

U posljednje vrijeme ovaj izraz zvuči sve češće. Ponekad nije čak ni povezan sa slučajem i zbunjen je s nečim drugim. Tako softverski proizvod izgleda impresivnije.

Nemojte misliti da su se koncept i osnovni principi strojnog učenja pojavili tek prije nekoliko godina. Zapravo su toliko godina da mnogi od nas tada nisu ni rođeni. Osnovna načela sustava dubokog učenja i matematički modeli njihovog rada bili su poznati još u 80-ima prošlog stoljeća.

U to vrijeme nisu imali toliko smisla zbog nedostatka jedne važne komponente. Bila je to visoka računalna snaga. Tek sredinom 2000-ih pojavili su se sustavi koji mogu pomoći u ovom smjeru i omogućiti izračunavanje svih potrebnih podataka. Sada su se strojevi još više razvili i neki sustavi strojnog vida, percepcije glasa i neki drugi djeluju tako učinkovito da ponekad čak i nadmašuju mogućnosti osobe. Iako još uvijek nisu "zatvoreni" u odgovornim smjerovima, što ih čini dodatkom ljudskim mogućnostima uz zadržavanje kontrole nad njima.

Image
Image

Što je Deepfake? Kada se pojavio Deepfake?

Lako je pogoditi da je Deepfake mala igra riječi koja je povezana s Dubokim učenjem i samim lažima o kojima sam gore govorio. Odnosno, Deepfake bi trebao lažno preuzeti na novu razinu i istovariti osobu u ovom teškom poslu, omogućujući im da kreiraju lažni sadržaj bez trošenja energije.

Prije svega, takvi se laži odnose na video. Odnosno, bilo koja osoba može sjesti pred kameru, nešto reći, a njegovo će lice zamijeniti drugom. Izgleda zastrašujuće, jer, zapravo, samo trebate uhvatiti osnovne pokrete osobe i bit će jednostavno nemoguće razlikovati lažni. Da vidimo kako je sve počelo.

Prvu generativnu protivgradnu mrežu stvorio je student sa Sveučilišta Stanford. Dogodilo se to 2014. godine, a ime učenika bilo je Ian Goodfellow. Zapravo je bacio dvije neuronske mreže jedna protiv druge, od kojih se jedna bavila generacijom ljudskih lica, a druga ih analizirala i govorila slično ili ne. Tako su međusobno trenirali i jednog dana se druga neuronska mreža počela zbuniti i stvarati nastale slike stvarnima. Deepfake je stvar ovog sve složenijeg sustava.

Sada je jedan od glavnih pokretača ideje Deepfakea Hao Li. On ne radi samo to, već i mnoge druge. Za to je više puta nagrađivan raznim nagradama, uključujući i neslužbene. Usput, on je jedan od onih kojima treba zahvaliti na pojavi animojija u iPhoneu X. Ako je zainteresiran, možete se detaljnije upoznati s njim na njegovoj web stranici. Danas on nije glavna tema razgovora.

Sjetili smo ga se samo zato što je na Svjetskom ekonomskom forumu u Davosu pokazao svoju prijavu, koja će vam omogućiti da lice osobe koja sjedi pred kamerom zamijenite bilo kojim drugim licem. Konkretno, pokazao je kako sustav funkcionira na primjeru lica Leonarda DiCaprija, Williama Smitha i drugih poznatih osoba.

Izgleda pomalo jezivo. S jedne strane, možete se diviti samo modernim tehnologijama koje vam omogućuju skeniranje lica, mijenjanje u drugo u pokretu i stvaranje nove slike. Sve to traje djelić sekunde, a sustav se niti ne usporava. To jest, omogućava ne samo obradu gotovog videa i zamjenu lica, već i sudjelovanje takvog lika u nekoj vrsti video komunikacije uživo.

Opasnost od Deepfakea. Kako mogu promijeniti lice na videozapisu?

Možete pričati koliko god želite da je ova tehnologija potrebna, vrlo je cool i ne morate griješiti. Možete čak otići do krajnosti i početi govoriti da je to položaj žestokog starca koji se jednostavno boji svega novog, ali stvarno postoje više opasnosti nego koristi.

S takvom tehnologijom, posebno ako je open source, svatko će moći surfati i snimiti bilo koji video. Nije loše ako samo kleveće nečiju čast i dostojanstvo, još gore ako je to izjava dana u ime neke važne osobe. Na primjer, snimanjem video zapisa dugog samo 30-40 sekundi u ime Tima Kuha, možete srušiti gotovo čitavu informatičku sferu SAD-a, koju vodi Apple. Burza će biti toliko pogođena da će zasijati panika među ulagačima. Kao rezultat, tisuće ljudi će izgubiti milijarde dolara.

Tko ne voli ovaj način zarađivanja, reći će da je to ono što im treba, neka ide u tvornicu. Ali prema najtužnijem scenariju, nakon ovoga neće biti biljke. Uz to, lažno je dobiti osobu koja vara o fluktuacijama vrijednosti vrijednosnih papira. Dovoljno je samo ih kupiti i prodati na vrijeme.

Situacija bi mogla biti još gora ako "šaljivdžija" govori u ime vođe velike države. Naravno, tada će se sve otkriti, ali za to vrijeme možete učiniti puno neugodnih stvari. U takvoj poziciji jednostavno bi zamijenilo lice slavne glumca u filmu za odrasle biće bezazlena poteškoća.

S takvim je tehnologijama najvažnije skenirati i onda je to stvar tehnologije. U najboljem smislu te riječi
S takvim je tehnologijama najvažnije skenirati i onda je to stvar tehnologije. U najboljem smislu te riječi

S takvim je tehnologijama najvažnije skenirati i onda je to stvar tehnologije. U najboljem smislu te riječi.

Možete zamisliti suprotnu situaciju, kada stvarna osoba nešto kaže, a zatim svima uvjeri da je uokviren. Kako je biti u ovoj situaciji, također nije baš jasno. To će unijeti toliku zbrku u feedove vijesti da ih je jednostavno nemoguće dvostruko provjeriti u drugom izvoru. Kao rezultat toga, postat će općenito nejasno što je istina, a što lažno na ovom svijetu. Slika nastaje iz filmova o tmurnoj budućnosti, poput Surrogatesa ili Terminatora, gdje se T-1000 predstavio kao drugi ljudi i, između ostalog, nazvao John Conor u ime njegove posvojiteljice.

Sada čak i ne govorim o još jednoj zlouporabi koja će omogućiti prikupljanje lažnih dokaza. U takvoj pozadini sva zabava igračaka postaje previše sumnjiva.

Kako otkriti Deepfake?

Problem nije ni u tome što bi takve sustave trebalo zabraniti, ali to više nije moguće. Oni su već tu, a razvoj tehnologija, uključujući čitanje lica, doveo je do njihovog pojavljivanja i širenja otvorenog koda. Čak i ako zamislimo da će sustav u svom sadašnjem obliku prestati postojati, moramo razumjeti da će se stvoriti iznova. Samo će još jednom naučiti neuronske mreže da rade jedna s drugom i to je to.

Za sada nije sve tako zastrašujuće, a lažni se možete doslovno identificirati golim okom. Slika je slična, ali prilično gruba. Uz to, ona ponekad ima nekih problema sa miješanjem, posebno oko rubova lica. Ali ništa ne stoji i uopće ga nije teško još više razviti. Isti Hao Li siguran je da će to potrajati najviše nekoliko mjeseci, a za stvaranje „maski“koje čak ni računalo ne može razlikovati, bit će potrebno još nekoliko godina. Nakon toga neće biti povratka.

S jedne strane, algoritam koji YouTube i Facebook već stvaraju mogu zaštititi od toga. Usput, potonji je čak otvorio i natječaj za razvoj tehnologije prepoznavanja - Deepfake Detection Challenge ("Zadatak otkrivanja dubokih zvukova"). Nagradni fond za ovo natjecanje iznosi 10 milijuna dolara. Natjecanje je već u tijeku i završit će u ožujku 2020. godine. Još uvijek možete imati vremena za sudjelovanje.

Zamjena lica u videozapisu više nije problem
Zamjena lica u videozapisu više nije problem

Zamjena lica u videozapisu više nije problem.

Možda je ta velikodušnost posljedica lažnog videa sa samim Markom Zuckerbergom. Ako su ove dvije stvari povezane, pojava takvog natjecanja nije iznenađujuća.

Ako zamijenjeno lice u potpunosti odgovara originalnom, kontrafor koji predstavlja posebna neuronska mreža bit će nemoćan. U ovom će slučaju ona morati uhvatiti minimalne razlike u izrazima lica, pokretima i načinu govora. U slučaju poznatih osoba, takav će se problem riješiti na razini video servisa, budući da isti YouTube zna kako se kreće konvencionalni Donald Trump. Kad je u pitanju manje poznata osoba, ona postaje zamršenija. Iako se to može dokazati i postavljanjem njega pred kameru i ležernim razgovorom dok neuronska mreža analizira njegovo kretanje. Pokazat će se da je nešto poput proučavanja otiska prsta, ali, kao što vidimo, to će opet dovesti do nepotrebnih poteškoća.

Šivanje sustava za provjeru autentičnosti u fotoaparate također se može zaobići. Možete navesti kameru da označi snimljeni video i jasno mu je da nije snimljen kroz zasebnu aplikaciju ili obrađen u posebnom programu. Ali što je s videozapisima koji su upravo obrađeni? Na primjer, uređeni intervju. Kao rezultat toga, dobit ćemo video u kojem originalnog ključa više neće biti.

Nekoliko mem na kraju
Nekoliko mem na kraju

Nekoliko mem na kraju.

Možemo li reći da smo sada nacrtali jedan od scenarija mračne budućnosti? Općenito, da. Ako tehnologije koje su stvorene za postizanje dobrih ciljeva izmaknu kontroli, mogu ih gricnuti tugom. Zapravo, postoji mnogo mogućnosti za tako opasne tehnologije, ali većina ih je zaštićena. Na primjer, nuklearna fuzija. Ovdje se bavimo kodom koji svatko može dobiti.

U komentare napišite kako vidite zaštitu od krivotvorenja, obzirom da je sustav maskiranja mogao napraviti maske potpuno identične izvornim licima. A s obzirom da su na videu, na njih ne možete primijeniti ni dubinu i glasnoću. Uz to, pretpostavimo da bilo koji kôd i ključ ugrađen u sliku može biti hakiran. Kako kažu, bilo bi za što. Sada možemo razgovarati, svi uvodni su tu.

Artem Sutjagin