U Svijetu Sutra Ne Samo Da ćete Gledati Filmove, Već će Biti I Iza Vas - Alternativni Prikaz

Sadržaj:

U Svijetu Sutra Ne Samo Da ćete Gledati Filmove, Već će Biti I Iza Vas - Alternativni Prikaz
U Svijetu Sutra Ne Samo Da ćete Gledati Filmove, Već će Biti I Iza Vas - Alternativni Prikaz

Video: U Svijetu Sutra Ne Samo Da ćete Gledati Filmove, Već će Biti I Iza Vas - Alternativni Prikaz

Video: U Svijetu Sutra Ne Samo Da ćete Gledati Filmove, Već će Biti I Iza Vas - Alternativni Prikaz
Video: Playful Kiss - Playful Kiss: Full Episode 9 (Official & HD with subtitles) 2024, Rujan
Anonim

Kad ste u mračnom kinu, drugi često neprimijećuju vaše reakcije na ono što se događa na ekranu. Ovdje ćete širom otvoriti oči pri neočekivanom zaokretu urote, doslovno skočiti u svoju stolicu iz zastrašujućeg prizora ili proliti suzu za melodramatičnu glazbu - sve te emocije vjerojatno će biti usmjerene ne više od plastičnog naslona stolice ispred. Ali samo ako ovo kino nije opremljeno "računalnim vidom". Ako ikad dobijete priliku posjetiti neku od ovih, budite sigurni da će vas dok gledate film gledati film.

Računalni program, čiji je glavni zadatak upravo ono što je gore napisano, razvio je Silver Logic Labs. Njen glavni izvršni direktor Jerimaya Hamon stručnjak je za primijenjenu matematiku specijaliziran za teoriju brojeva. Dugi niz godina surađivao je u zidovima divova poput Amazona, Microsofta, kao i na Harvard Medical School, baveći se raznim pitanjima koja se odnose na ljudsku potrošačku prirodu. Međutim, njegov je glavni interes oduvijek bio razumjeti kako umjetna inteligencija može pomoći u boljem predviđanju jedne od naših najtežih karakteristika - ljudskog ponašanja.

Istražujući AI algoritme za analizu ljudskih odgovora na percepciju različitih vrsta medija, Hamon je shvatio da to može biti korisno ne samo znanstveno, već i komercijalno. Njegov sustav funkcionira na sljedeći način: algoritam AI prati publiku koja gleda film, primjećujući emocije na licima ljudi, koje se očituju kroz čak i najsuptilnije promjene (tzv. Mikroizražavanja), a potom na temelju tih podataka stvara potrebne podatke za naknadnu analizu.

Hamon se ozbiljno upuštao u takva istraživanja prije otprilike tri godine i, iako rezultati njegovog rada za medijsku industriju do sada izgledaju vrlo surovi, svakako su potakli veliko zanimanje za ovu temu. Djelomično zato što obećavaju pouzdane rezultate, jer ljudsko ponašanje može biti predvidivo kao i način na koji softver funkcionira, barem prema Hamonu vlastitoj viziji. AI će zauzvrat, kao i tehnologije računalnog vida koje koristi pomoći u prikupljanju podataka o tome kako ljudi reagiraju na određene filmove i televizijske programe, mnogo učinkovitije nego bilo koja fucus grupa. Nakon što je AI osposobljen za prikupljanje pravih podataka, može pružiti brzu, dosljednu i detaljnu analizu tih podataka. Za ta područja industrijekoji moraju raditi s ovim podacima - sjajne vijesti. Doista, zahvaljujući kompetentnijoj i učinkovitijoj analizi ljudskih želja i sklonosti, oni će moći poboljšati svoje proizvode i usluge koji donose novac.

Ocjene su jedan od najvažnijih i indikativnih aspekata koji osiguravaju uspjeh određenog televizijskog programa ili filma. Na iznenađenje onih koji su pratili postupak, trenutna verzija softvera Hamon uspjela je predvidjeti ocjene za Nielsen, Rotten Tomatoes i IMDB s točnošću od 84 do 99 posto. Razlika u pokazateljima je zbog činjenice da su neki predmeti ocjene "multimodalni", odnosno dizajnirani za širu publiku, pa ih je obično teže predvidjeti. Kada je riječ o TV-u, općenito, sam pokušaj predviđanja popularnosti određenog programa ne može impresionirati.

"Kada sam prvi put započeo, svi su mi govorili da nikad neću moći tako nešto predvidjeti, jer to nitko ne može", podijelio je Hamon u razgovoru za futurizam.

Ali s matematikom ništa nije nemoguće. Doista, prema Hamonu, uz pomoć matematičkih metoda moguće je primijetiti mnoge nijanse koje je bez njihove upotrebe jednostavno nemoguće primijetiti.

„Iz publike smo preuzeli emotivne reakcije na vizualnu i slušnu stimulaciju i pretvorili ih u digitalne vrijednosti. A kad nešto poprimi oblik digitalne vrijednosti, tada prije ili kasnije poprimi oblik potrebne jednadžbe, čija se zadaća u našem slučaju svodi na otkrivanje koliko vam se zaista svidjela (ili će vam se svidjeti) ova ili ona emisija”, kaže Hamon.

Promotivni video:

Istraživač izvještava da postoji opsežna statistička analiza, ali odbija dati bilo kakve detalje o tome koja jednadžba koristi za izračunavanje, što ukazuje da na taj način pokušava zaštititi "tajni sastojak" svog programa.

Izvan zabavne industrije

AI-ovi visoki učinci u predviđanju ljudskih sklonosti naveli su Hamona da istraži druga područja u kojima bi njegov program mogao biti učinkovit. Na primjer, u određivanju da li osoba govori istinu ili ne. Poput poligrafa, AI je mogao usporediti podatke koji ukazuju na stresna stanja s referentnim skupom vrijednosti i na temelju toga utvrditi laže li osoba ili ne. Da bi testirao ovu ideju, Hamon je koristio AI algoritam kako bi izvršio zadatak identificiranja emocija kod ljudi na temelju videozapisa relativno niske kvalitete. Za istraživanje je koristio videozapise novinske agencije CSPAN, kao i snimke snimljenih s konferencija za novinare predsjednika Donalda Trumpa.

U trenutku kad se istina može dovesti u pitanje, odvajanje istine od neistine može biti presudno. Međutim, sustav se može koristiti i u situacijama kada doslovno prelazi u život i smrt. Na primjer, u medicini, gdje je možda potrebno točno odrediti razinu boli koju osoba doživljava kako bi liječnici mogli odabrati učinkovitije postupke.

Hamon napominje da sustav može biti koristan, na primjer, u situacijama kada je potrebno prepoznati moždani udar. Unatoč činjenici da medicinsko osoblje obično prolazi potrebnu obuku kako bi im omogućilo prepoznavanje znakova moždanog udara, često postoje slučajevi propuštanja takozvanih mikro udaraca (ili prolaznih ishemijskih napada, ako su znanstveno znanstveni), koji vrlo često slijede velikih udaraca koji zahvaćaju veliko područje mozak. AI računalni vid mogao je otkriti ove mikro-znakove moždanog udara, ili čak simptome ili nagovještaje o nadolazećoj bolesti, čak i prije nego što se stvarno pojave kod pacijenta. U ovom bi slučaju medicinsko osoblje moglo pravodobno reagirati na situaciju i možda čak poduzeti korake kako bi se izbjegao daljnji razvoj ozbiljnijeg moždanog udara.

No, hoće li to zapravo uspjeti? Jamon misli da je to moguće. Istraživač je uvjeren da su AI sposobni postati toliko osjetljivi da će moći otkriti tako suptilne i prolazne promjene u radu tijela. Kada se sustav testirao kod različitih publika, istraživači su morali uzeti u obzir činjenicu da neki ljudi uzimaju propisane lijekove, od kojih neki, na primjer, imaju nuspojave u obliku visokog krvnog tlaka ili suptilnih mišićnih grčeva. Možda osoba neće moći primijetiti te promjene kod druge osobe, međutim, AI ih lako može otkriti, ali istodobno može pogrešno utjecati uzimanje lijeka na manifestaciju stresnih znakova. To se također mora uzeti u obzir.

Snažan alat

Mnogi ljudi misle da će inteligentni strojevi biti lišeni pristranosti, ali ne treba zaboraviti: ove će strojeve stvoriti ljudi, a ti ljudi koji se razvijaju i djeluju s AI mogu ih nesvjesno obdariti vlastitim pristranostima. S razvojem AI posljedice gomilanja tih pristranosti postat će izraženije i u konačnici mogu utjecati na različite procese obrade informacija, na primjer, kod identifikacije određene osobe ili pri prikupljanju društvenih podataka osobe sadržane u mrežama javnih usluga.

Kako tehnologije prepoznavanja lica već počinju prodirati u naš osobni život, mnoge se počinju razmišljati i više pažnje posvećuju etičkim pitanjima, izražavajući zabrinutost zbog vjerojatnog pristranog rada takvih algoritama. Ista ideja da tehnologija može postojati bez ikakvog stupnja pristranosti koja je ugrađena u nju vrlo je kontroverzna. Ozbiljno ga dovodi samo jedan jedini argument: učinkovitost AI ovisit će o podacima koji su ugrađeni u njega, a ti podaci mogu sadržavati podatke koji su u početku obojeni pristranosti osobe koja je stvorila ovaj sustav. Napretkom razvoja AI, stvaranjem strojeva koji zapravo mogu učiti, moramo razviti restriktivne mjere koje nas mogu zaštititi od situacija,kada ovi strojevi od nas mogu naučiti puno više nego što smo ih namjeravali naučiti.

Ipak, isti je Hamon siguran da je njegov algoritam potpuno nepristran, barem u najvećoj mogućoj mjeri. Njegov računalni sustav tumači samo znakove ljudskog ponašanja, bez obzira na to koje je lice ili tijelo u vidnom polju.

„Ja sam Indijanac i moram priznati da se ovdje ponekad događaju stvari koje mogu upaliti okoliš. Na primjer, mogli biste se nervirati kad se policajci pojave iza vaših leđa. Ipak, vjerujem da će takve tehnologije u budućnosti moći potpuno iskorijeniti ovaj faktor nervoze. Ako ne radite ništa loše, računalo će sigurno obavijestiti policajca da ne radite ništa loše. Osobno ću u ovom slučaju osjetiti povećanu razinu vlastite sigurnosti i zaštite od policijske brutalnosti, znajući da će računalo moći provesti sličnu razinu procjene prijetnje.

U svakom slučaju, Hamon se uopće ne trudi interpretirati rezultate analize podataka algoritmom koji je stvorio. U isto vrijeme, unatoč tome što je siguran u svoj algoritam, on također priznaje njegova ograničenja. Stoga, ako govorimo o zaključcima izvučenim iz analize, onda je, prema istraživanju, bolje da ovu odluku prepustimo stručnjacima sustava za provođenje zakona, medicine i psihijatrije.

Budućnost Hamonovog razvoja u Silver Logic Labs tek počinje. A mogućnosti za sfere primjene AI koje on stvara ograničene su samo ljudskom maštom. Sam Hamon želi da njegov alat postane istinski univerzalan i koristi se u rješavanju raznih pitanja, ali na ovaj ili onaj način, istraživač se povlači tamo gdje je sve počelo: stvoriti kvalitetne zabavne sadržaje.

"Pričanje priče je dio ljudske kulture", kaže Hamon.

Kroz svoj rad otkrio je barem jedan nemjerljiv element koji je ključ uspjeha medija.

„Jedno stvarno uživa gledati kako jedna osoba komunicira s drugima. Ovo je jedna od onih stvari koje čine formulu uspjeha , dodaje istraživač.

Unatoč činjenici da društvo, možda, može negativno uočiti transformacije koje AI obećava da će uvesti u naš život, u Hamonovoj viziji sigurno se može naći jedan vrlo pozitivan trenutak. Prije ili kasnije, umjetna inteligencija, na temelju svih podataka koje prikuplja, jednog dana će nas natjerati da preispitamo svoje razumijevanje onoga što u stvari znači biti čovjek. Možda će on u nama moći vidjeti ono što nikad prije nismo vidjeli ni u drugima ni u sebi.

Nikolaj Khizhnyak

Preporučeno: