Odmah Znate Da Je Ovo Porniće. Hoće Li Računalo Razumjeti? - Alternativni Prikaz

Sadržaj:

Odmah Znate Da Je Ovo Porniće. Hoće Li Računalo Razumjeti? - Alternativni Prikaz
Odmah Znate Da Je Ovo Porniće. Hoće Li Računalo Razumjeti? - Alternativni Prikaz

Video: Odmah Znate Da Je Ovo Porniće. Hoće Li Računalo Razumjeti? - Alternativni Prikaz

Video: Odmah Znate Da Je Ovo Porniće. Hoće Li Računalo Razumjeti? - Alternativni Prikaz
Video: EVO ZAŠTO SVI NAPADAJU BINANCE 2024, Rujan
Anonim

Tumblr je početkom prošlog mjeseca najavio da će zabraniti porniće. Kada je nova politika o sadržaju stupila na snagu, otprilike dva tjedna kasnije - 17. prosinca - postalo je očito da će postojati problemi. Nakon razmještanja sustava umjetne inteligencije koji je trebao zabraniti svu pornografiju na toj web stranici, on je pogrešno označio nevine postove u 455,4 milijuna blogova na web mjestu među 168,2 milijarde postova: vaze, vještice, ribe i sve to jazz.

Pornografija za umjetnu inteligenciju

Iako nije jasno koji je automatski filter Tumblr koristio ili stvorio vlastiti - tvrtka nije odgovarala na upite o toj temi - jasno je da je društvena mreža zaglavila između vlastite politike i tehnologije. Na primjer, nedosljedno stajalište web stranice o "ženama koje pokazuju bradavice" i umjetničkoj golotinji, na primjer, dovelo je do kontekstualnih odluka koje pokazuju da čak ni Tumblr ne zna što zabraniti na svojoj platformi. Kako česta tvrtka može odrediti što smatra opscenim?

Prvo, teško je blokirati rizične sadržaje jer je teško odrediti što je to od samog početka. Definicija opscenosti je zamka medvjeda stara više od stotinu godina, davne 1896. godine Sjedinjene Države su prvi put donijele zakone koji reguliraju opscenost. Godine 1964., u predmetu Jacobellis protiv Ohia, o tome može li Ohio zabraniti prikazivanje filma o Louisu Malleu, Vrhovni sud donio je ono što je danas možda najpoznatija definicija hardcore pornografije: "Danas više neću pokušavati definirati ovu vrstu materijala, koliko razumijem, bit će uključen u doslovni opis; i nikad ga neću uspjeti učiniti razumljivim ", rekao je sudac Potter Stewart. "Ali znam što je to kad ga vidim, a film povezan s ovim slučajem nije."

Algoritmi strojnog učenja imaju isti problem. Upravo je to problem koji Brian Delorge, predsjednik uprave Picnixa, tvrtke koja prodaje specijaliziranu tehnologiju umjetne inteligencije, pokušava riješiti. Jedan od njihovih proizvoda, Iris, je aplikacija za otkrivanje pornografije na strani klijenta kako bi se "pomoglo ljudima", kako Delorge kaže, "koji ne žele porniće u svom životu." Napominje da je poseban problem pornića u tome što to može biti bilo što, hrpa različitih stvari - a slike koje nisu pornografske mogu imati slične elemente. Slika s plaže na zabavi možda je blokirana ne zato što je na sebi više kože nego na uredskoj fotografiji, već zato što je na rubu. "Zato je vrlo teško trenirati algoritam prepoznavanja slike da se sve napravi odjednom", kaže DeLorge."Kad za ljude ta definicija postane teška, računalo ima poteškoće." Ako se ljudi ne mogu složiti što je porniće, a što ne, može li se računalo čak nadati da će znati razliku?

Kako biste naučili AI da otkriva porniće, prvo što trebate učiniti je nahraniti porniće. Puno pornografije. Gdje ga mogu nabaviti? Pa, prvo što ljudi učine je preuzimanje gomile vidova iz Pornhub-a, XVideos, kaže Dan Shapiro, suosnivač Lemay.ai-a, pokretača koji stvara AI filtre za svoje klijente. "Ovo je jedno od onih sivih područja pravne prirode - na primjer, ako učite iz tuđih sadržaja, pripada li vam?"

Nakon što programeri preuzmu tonove pornografije, izrezali su ne-pornografske snimke iz videa kako bi bili sigurni da upotrijebljeni snimci ne blokiraju momke za dostavu pizze. Platforme plaćaju ljudima, uglavnom izvan SAD-a, da označavaju takav sadržaj; posao je slabo plaćen i dosadan, poput ulaska u kapitu. Oni samo sjede i bilježe: ovo je porno, ovo je ovo. Morate malo filtrirati jer svi porno izlazi s etiketom. Učenje je bolje ako koristite ne samo fotografije, već i velike uzorke podataka.

Promotivni video:

"Često puta ne morate samo filtrirati porniće, već popratni materijal", kaže Shapiro. "Kao lažni profili s djevojčinom fotografijom i telefonom." Misli na seksualne radnike koji traže klijente, ali to bi moglo biti sve što nije u potpunosti legalno. "Ovo nije pornografija, ali ovo je vrsta stvari koju ne želite gledati na svojoj platformi, zar ne?" Dobar automatizirani moderator nauči od milijuna - ako ne i desetaka milijuna - uzorka sadržaja, što vam može uštedjeti tone ljudskog sata.

"To možete usporediti s razlikom između djeteta i odrasle", kaže Matt Zeiler, predsjednik Uprave i osnivač Clarifai-a, pokretača računalnog vida koji radi ovakvo filtriranje slika za korporativne klijente. "Mogu vam reći sa sigurnošću - prije nekoliko mjeseci imali smo dijete. Oni ne znaju ništa o svijetu, sve je novo za njih. " Morate djetetu pokazati (algoritam) puno stvari tako da ono nešto razumije. „Milioni i milijuni primjera. Ali kao odrasli - kad smo stvorili toliko konteksta o svijetu i shvatili kako on to funkcionira - možemo naučiti nešto novo iz samo nekoliko primjera. " (Da, podučavanje AI-ja za filtriranje sadržaja za odrasle je poput pokazivanja djetetu puno pornografije.) Tvrtke poput Clarifai-a danas brzo rastu. Imaju dobru svjetsku bazu podataka, mogu reći psima mačke, odjeveni goli. Zeilerova tvrtka koristi svoje modele za obuku novih algoritama za svoje klijente - budući da je izvorni model obradio puno podataka, a personalizirane verzije zahtijevale bi samo nove skupove podataka za rad.

Međutim, teško je algoritam ispraviti. Dobro se slaže sa sadržajem koji je očito pornografski; ali klasifikator može pogrešno označiti oglas za donje rublje kao nedopušten, jer slika ima više kože nego recimo ured. (Sa bikinijima i donjim rubljem, prema Zeileru, vrlo je teško). To znači da bi se trgovci u svom radu trebali usredotočiti na ove rubne slučajeve, dajući prednost teško razvrstavanju modela.

Koji je najteži dio?

"Anime porno", kaže Zeiler. "Prva verzija našeg detektiva golotinje nije koristila crtanu pornografiju za obrazovanje." Mnogo puta je AI pogriješio jer nije prepoznao hentai. "Nakon što smo radili na klijentu, uložili smo puno njihovih podataka u model i dramatično poboljšali točnost filtera za crtiće, istovremeno održavajući točnost stvarnih fotografija", kaže Zeiler.

Tehnologija koja je naučena kako izmamiti porniće može se koristiti i za druge stvari. Tehnologije koje stoje iza ovog sustava su izuzetno fleksibilne. Ovo je više od anime sisa. Na primjer, Jigsaw od Abecede naširoko se koristi kao automatski moderator komentara u novinama. Ovaj softver djeluje na sličan način kao i klasifikatori slike, samo što razvrstava po toksičnosti, a ne po golotinji. (Toksičnost u tekstualnim komentarima je tako teško odrediti koliko i pornografija u slikama.) Facebook koristi ovu vrstu automatskog filtriranja kako bi otkrio samoubilačke poruke i sadržaj povezan sa terorizmom, a pokušao je upotrijebiti ovu tehnologiju za otkrivanje lažnih vijesti na svojoj ogromnoj platformi.

Sve to još uvijek ovisi o ljudskom nadzoru; bolje se bavimo dvosmislenošću i dvosmislenim kontekstom. Zeiler kaže kako ne misli da je njegov proizvod uzeo nečiji posao. Rješava problem skaliranja interneta. Ljudi će i dalje trenirati AI sortiranjem i označavanjem sadržaja tako da ih AI može razlikovati.

Ovo je budućnost umjerenosti: prilagođena, ključ u ruke rješenja koja se pružaju tvrtkama koje rade cijeli posao podučavanjem više i naprednijih klasifikatora više podataka. Baš kao što Stripe i Square nude izvanserijska rješenja plaćanja za tvrtke koje ih ne žele sami obraditi, tako će i startupi poput Clarifai, Picnix i Lemay.ai vršiti internetsku moderiranost.

Dan Shapiro iz Lemay.ai nada se. "Kao i svaka tehnologija, to je još uvijek u procesu pronalaska. Dakle, mislim da nećemo popustiti ako ne uspijemo. " Ali hoće li AI ikada moći samostalno djelovati bez ljudskog nadzora? Nejasno. "Nema malog čovjeka u grickalici koji filtrira svaki snimak", kaže on. "Morate dobiti podatke svugdje kako biste uvježbali algoritam na njemu."

Zeiler, s druge strane, vjeruje da će jednog dana umjetna inteligencija ublažiti sve samostalno. Na kraju će se broj ljudskih intervencija svesti na nulu ili na zanemariv napor. Postupno, ljudski napori pretvorit će se u nešto što AI sada ne može učiniti, poput razmišljanja na visokoj razini, samosvijesti - svega onoga što ljudi imaju.

Prepoznavanje pornografije dio je toga. Prepoznavanje je za ljude relativno trivijalni zadatak, ali mnogo je teže uvježbati algoritam za prepoznavanje nijansi. Određivanje praga kada filter označi sliku kao pornografsku ili ne pornografsku također je težak zadatak, dijelom matematički.

Umjetna inteligencija nesavršeno je ogledalo načina na koji vidimo svijet, baš kao što je pornografija odraz onoga što se događa između ljudi kad su sami. Ima nešto istine u tome, ali nema cjelovite slike.

Ilya Khel