Kako Su Neuronske Mreže Bile Naučene Da Krivotvore Novinsku Sliku - Alternativni Prikaz

Sadržaj:

Kako Su Neuronske Mreže Bile Naučene Da Krivotvore Novinsku Sliku - Alternativni Prikaz
Kako Su Neuronske Mreže Bile Naučene Da Krivotvore Novinsku Sliku - Alternativni Prikaz

Video: Kako Su Neuronske Mreže Bile Naučene Da Krivotvore Novinsku Sliku - Alternativni Prikaz

Video: Kako Su Neuronske Mreže Bile Naučene Da Krivotvore Novinsku Sliku - Alternativni Prikaz
Video: Niko ne zna šta je sreća bolje od njih 2024, Travanj
Anonim

Za stvaranje lažiranja koriste se sustavi umjetne inteligencije i tehnologije za generiranje video i audio lažnih zapisa.

Za stvaranje „individualne“vijesti za bilo koga od nas i lažiranje medijskih izvješća odabranih u njoj danas su dovoljni napori jednog programera. O tome su za Izvestie rekli stručnjaci za umjetnu inteligenciju i cyber-sigurnost. U novije su vrijeme ocijenili da to zahtijeva rad više timova. Takvo ubrzanje postalo je moguće razvojem tehnologija za napade na neuronske mreže i generiranjem zvučnih i video lažnih zapisa pomoću programa za stvaranje "dubokih krivotvorina". Časopis "Izvestia" nedavno je pretrpio sličan napad, kada su tri libijska informativna portala odjednom objavila poruku koja se navodno pojavila u jednom od izdanja. Prema riječima stručnjaka, u roku od 3-5 godina može se očekivati invazija robotskih manipulatora, što će automatski moći stvoriti mnoge lažne.

Hrabri novi svijet

Sve je više projekata koji informacijsku sliku prilagođavaju percepciji određenih korisnika. Jedan primjer njihovog rada bila je nedavna akcija tri libijska portala koja su 20. novembra objavila vijesti koje su navodno bile tiskane u broju "Izvestije". Tvorci laži modificirali su naslovnicu novina, objavivši na njoj poruku o pregovorima feldmaršala Khalife Haftara i premijera Vlade Nacionalnog sporazuma (PNS) Fayeza Sarraya. Lažnjak, u fontu Izvestie, bio je popraćen fotografijom dviju voditelja snimljenom u svibnju 2017. godine. Oznaka s logotipom publikacije izrezana je iz stvarnog objavljenog broja od 20. studenog, a svi ostali tekstovi na stranici iz broja 23. listopada.

Sa stajališta stručnjaka, u dogledno vrijeme takve se falsifikacije mogu izvršiti automatski.

Image
Image

"Tehnologije umjetne inteligencije sada su potpuno otvorene, a uređaji za primanje i obradu podataka minijaturiziraju se i postaju jeftiniji", izjavio je za Izvestije Jurij Vilsiter, doktor fizikalnih i matematičkih znanosti, profesor Ruske akademije znanosti, šef Odjela FSUE "GosNIIAS". - Stoga je velika vjerojatnost da u skoroj budućnosti neće moći niti država i velike korporacije, već jednostavno privatnici prisluškivati i špijunirati nas, kao i manipulirati stvarnošću. U narednim godinama moći će se, analizirajući preferencije korisnika, utjecati na njega putem feedova vijesti i vrlo pametnih krivotvorina.

Promotivni video:

Prema Juriju Vilsiteru, tehnologije koje se mogu koristiti za takvu intervenciju u mentalno okruženje već postoje. Teoretski, invazija robotskih robota može se očekivati za nekoliko godina, rekao je. Ograničavajući trenutak ovdje može biti potreba za prikupljanjem velikih baza podataka s primjerima reakcija stvarnih ljudi na umjetne podražaje uz praćenje dugoročnih posljedica. Takvo praćenje vjerojatno će zahtijevati još nekoliko godina istraživanja prije nego što se ciljani napadi dosljedno dobiju.

Vidni napad

Aleksej Parfentiev, šef odjela za analitiku u SearchInformu, slaže se s Jurijem Vilsiterom. Prema njegovim riječima, stručnjaci već predviđaju napade na neuronske mreže, iako sada praktički nema takvih primjera.

- Istraživači iz Gartnera vjeruju da će do 2022. godine 30% svih cyberatnih napada biti usmjereno na korumpiranje podataka na kojima se neuronska mreža trenira i kradu gotove modele strojnog učenja. Tada, na primjer, bespilotna vozila mogu iznenada početi zabunom pješaka zbog drugih objekata. I nećemo govoriti o financijskom ili reputacijskom riziku, već o životu i zdravlju običnih ljudi, vjeruje stručnjak.

Napadi na računalni vidni sustav provode se kao dio istraživanja. Svrha takvih napada je prisiliti neuronsku mrežu da na slici otkrije ono što nema. Ili, obrnuto, da ne vidimo što je planirano.

Image
Image

"Jedna od tema koja se aktivno razvija na području treninga neuronske mreže jesu takozvani protivnički napadi (" protivnički napadi "- Izvestije)", objasnio je Vladislav Tushkanov, web analitičar u laboratoriju Kaspersky. - U većini slučajeva usmjereni su na sustave računalnog vida. Da biste izveli takav napad, u većini slučajeva morate imati puni pristup neuronskoj mreži (tzv. Napadi s bijelom kutijom) ili rezultatima njezina rada (napadi crne kutije). Ne postoje metode koje bi mogle prevariti bilo koji sustav računalnog vida u 100% slučajeva. Osim toga, već su stvoreni alati koji vam omogućuju testiranje neuronskih mreža na otpornost prema protivničkim napadima i povećanje njihove otpornosti.

Tijekom takvog napada napadač pokušava nekako promijeniti prepoznatljivu sliku tako da neuronska mreža ne djeluje. Na fotografiji se često nanosi buka, slična onoj koja nastaje prilikom fotografiranja u slabo osvijetljenoj sobi. Osoba obično takve smetnje ne primjećuje dobro, ali neuronska mreža počinje neispravno raditi. Ali da bi izveo takav napad, napadaču je potreban pristup algoritmu.

Prema riječima Stanislava Ashmanova, generalnog direktora Neuroseta Ashmanova, trenutno ne postoje metode rješavanja ovog problema. Uz to, ova je tehnologija dostupna svima: prosječni programer može je koristiti preuzimanjem potrebnog softvera otvorenog koda iz Github usluge.

Image
Image

- Napad na neuronsku mrežu tehnika je i algoritama za zavaravanje neuronske mreže, zbog kojih ona daje lažne rezultate, a u stvari razbija kao ključ na vratima - smatra Ashmanov. - Na primjer, sada je prilično lako natjerati sustav za prepoznavanje lica da misli da to niste vi, već Arnold Schwarzenegger ispred njega - to se postiže miješanjem aditiva neprimjetnih za ljudsko oko u podatke koji ulaze u neuronsku mrežu. Isti su napadi mogući i za sustave prepoznavanja i analize govora.

Stručnjak je siguran da će se samo pogoršati - ove tehnologije su otišle u masu, prevaranti ih već koriste, ali ne postoje sredstva zaštite od njih. Kako ne postoji zaštita od automatiziranog stvaranja video i audio krivotvorina.

Duboki laži

Tehnologije dubokog učenja utemeljene na dubokom učenju (tehnologije dubokog učenja neuronskih mreža. - Izvestije) već predstavljaju stvarnu prijetnju. Video ili audio varalice nastaju uređivanjem ili prekrivanjem lica poznatih osoba koji navodno izgovaraju potreban tekst i igraju potrebnu ulogu u zapletu.

"Deepfake vam omogućuje da zamijenite pokrete usana i ljudski govor video, što stvara osjećaj realizma onoga što se događa", kaže Andrey Busargin, direktor odjela za inovativnu zaštitu branda i intelektualno vlasništvo Grupe-IB. - Lažne poznate ličnosti "nude" korisnicima na društvenim mrežama da sudjeluju u izvlačenju vrijednih nagrada (pametni telefoni, automobili, novčane svote) itd. Poveznice iz ovih videozapisa često vode do lažnih i krađu identiteta na kojima se od korisnika traži da unose osobne podatke, uključujući podatke o bankovnim karticama. Takvi programi predstavljaju prijetnju i običnim korisnicima i javnim osobama koje se spominju u reklamama. Zbog ove vrste šenagana, slike slavnih postaju povezane s prijevarama ili reklamiranom robom.i to je mjesto gdje nailazimo na štetu osobne marke ", kaže on.

Image
Image

Još jedna prijetnja povezana je s korištenjem "lažnih glasova" za telefonsku prijevaru. Primjerice, u Njemačkoj su cyber-kriminalci koristili voicefake kako bi šef britanske podružnice hitno prenio 220 000 eura na račun mađarskog dobavljača u telefonskom razgovoru, predstavljajući se kao direktor tvrtke. Šef britanske firme posumnjao je u trik kada je njegov "šef" zatražio drugi novčani nalog, ali poziv je stigao s austrijskog broja. Do tada je prva tranša već bila prebačena na račun u Mađarskoj odakle je novac povučen u Meksiko.

Ispada da trenutne tehnologije omogućavaju stvaranje pojedinačne slike vijesti ispunjene lažnim vijestima. Štoviše, lažni će se fajlovi od stvarnog video i audio uskoro moći razlikovati samo hardverom. Prema riječima stručnjaka, mjere zabrane razvoja neuronskih mreža vjerojatno neće biti učinkovite. Stoga ćemo uskoro živjeti u svijetu u kojem će biti potrebno stalno sve provjeravati.

"Moramo se pripremiti za to i trebamo ga prihvatiti", naglasio je Jurij Vilsiter. - Čovječanstvo nije prvi put koji prelazi iz jedne stvarnosti u drugu. Naš svijet, način života i vrijednosti radikalno se razlikuju od svijeta u kojem su živjeli naši preci prije 60.000 godina, prije 5.000, 2.000 godina, pa čak i 200-100 godina. Osoba će u skoroj budućnosti biti u velikoj mjeri lišena privatnosti i zbog toga će biti prisiljena ne skrivati ništa i djelovati pošteno. Istodobno se ništa u okolnoj stvarnosti i u vlastitoj osobnosti ne može preuzeti na vjeru, sve će se morati ispitivati i stalno provjeravati. No, hoće li ta buduća stvarnost biti strašna? Ne. Jednostavno će biti potpuno drugačije.

Anna Urmantseva