AI Može Zauvijek Promijeniti Naš život - Ali Trenutno Smo Na Mračnoj Stazi - Alternativni Prikaz

AI Može Zauvijek Promijeniti Naš život - Ali Trenutno Smo Na Mračnoj Stazi - Alternativni Prikaz
AI Može Zauvijek Promijeniti Naš život - Ali Trenutno Smo Na Mračnoj Stazi - Alternativni Prikaz

Video: AI Može Zauvijek Promijeniti Naš život - Ali Trenutno Smo Na Mračnoj Stazi - Alternativni Prikaz

Video: AI Može Zauvijek Promijeniti Naš život - Ali Trenutno Smo Na Mračnoj Stazi - Alternativni Prikaz
Video: Koliko se svijet može promijeniti u 5 ili 10 godina? 2024, Svibanj
Anonim

Umjetna inteligencija (AI) već mijenja svijet na vidljive načine. Podaci pokreću naš globalni digitalni ekosustav, a AI tehnologije otkrivaju obrasce podataka.

Pametni telefoni, pametne kuće i pametni gradovi utječu na način na koji živimo i komuniciramo, a sustavi umjetne inteligencije sve se više uključuju u donošenje odluka o zapošljavanju, medicinsku dijagnostiku i presuđivanje. Je li taj scenarij utopijski ili distopijski ovisi o nama.

Potencijalni rizici AI navedeni su mnogo puta. Roboti ubojice i velika nezaposlenost uobičajeni su problemi, dok se neki ljudi čak plaše izumiranja. Optimističnije projekcije tvrde da će AI dodati 20 trilijuna dolara globalnoj ekonomiji do 2030. godine i da će nas na kraju odvesti u neku vrstu socijalne nirvane.

Svakako trebamo razmotriti utjecaj takvih tehnologija na naše društvo. Jedno od glavnih problema je da AI sustavi pojačavaju postojeće socijalne pristranosti - do pogubnog učinka.

Nekoliko notornih primjera ovog fenomena dobilo je široku pažnju: moderni automatizirani sustavi strojnog prijevoda i sustavi za prepoznavanje slike.

Ovi problemi nastaju zato što takvi sustavi koriste matematičke modele (poput neuronskih mreža) za definiranje obrazaca u velikim skupovima podataka o treningu. Ako su ovi podaci na različite načine jako iskrivljeni, obučeni sustavi će neizbježno proučavati i reproducirati prirođene pogreške.

Usredotočene autonomne tehnologije problematične su jer mogu potencijalno izolirati skupine poput žena, etničkih manjina ili starih osoba, te pogoršati postojeće socijalne neravnoteže.

Ako su AI sustavi, primjerice, osposobljeni iz podataka o policijskim uhićenjima, tada će se svi svjesni ili nesvjesni pristranosti koji se očituju u postojećim shemama uhićenja duplicirati pomoću AI sustava „policijskog predviđanja“iz ovog podatka.

Promotivni video:

Uviđajući ozbiljne posljedice toga, razne ugledne organizacije nedavno su preporučile da se svi sustavi umjetne inteligencije obuče na objektivnim podacima. Etičke smjernice koje je Europska komisija objavila ranije 2019. predložile su sljedeću preporuku:

Kad se podaci prikupljaju, mogu sadržavati društveno konstruirane pogreške, netočnosti. To se mora riješiti prije obuke AI na bilo kojem skupu podataka.

Sve ovo zvuči dovoljno razumno. Nažalost, ponekad jednostavno nije moguće osigurati nepristranost određenih skupova podataka prije treninga. To bi trebao pojasniti konkretan primjer.

Svi moderni sustavi strojnog prevođenja (poput Google Translatea) uče od parova rečenica.

Anglo-francuski sustav koristi podatke koji povezuju engleske rečenice ("ona je visoka") s ekvivalentnim francuskim rečenicama ("elle est grande").

U datom skupu podataka o treningu moglo bi biti 500 milijuna takvih parova, a samim tim i samo milijarda pojedinačnih rečenica. Sve rodne pristranosti moraju se ukloniti iz ove vrste podataka ako želimo spriječiti generiranje rezultata poput sljedećih:

Francuski prijevod nastao je pomoću Google Translatea 11. listopada 2019. godine i netočno je: "Ils" je muški oblik množine na francuskom i pojavljuje se ovdje iako kontekst jasno ukazuje da se na njega upućuje na žene.

Ovo je klasičan primjer automatiziranog sustava koji preferira zadani muški standard zbog pristranosti u podacima o treningu.

Sveukupno, 70 posto generičkih zamjenica u skupovima podataka za prijevod je muško, a 30 posto žensko. To je zbog činjenice da se tekstovi korišteni u takve svrhe češće odnose na muškarce nego na žene.

Kako bi se izbjeglo ponavljanje postojećih pogrešaka u sustavu prevođenja, bilo bi potrebno iz podataka izuzeti određene parove rečenica, tako da se muški i ženski zamjenici susreću u omjeru 50/50 na engleskoj i francuskoj strani. To će spriječiti sustav dodjeljivanja većih vjerojatnosti muškim zamjenicama.

Čak i ako je rezultirajući podskup podataka u potpunosti uravnotežen prema spolu, oni će i dalje biti izvrgnuti na različite načine (npr., Etnički ili dobni). Uistinu, bilo bi teško u potpunosti ukloniti sve ove pogreške.

Ako jedna osoba posveti samo pet sekundi čitanju svake od milijardu rečenica u podacima o AI treningu, trebat će im 159 godina da ih sve testiramo - a to pretpostavlja spremnost za rad cijeli dan i noć, bez pauza za ručak.

Alternativa?

Stoga je nerealno tražiti da se svi skupovi podataka treninga nepristrano pred izgradnju AI sustava. Takvi zahtjevi na visokoj razini obično pretpostavljaju da "AI" označava homogenu skupinu matematičkih modela i algoritamskih pristupa.

Zapravo, različiti AI zadaci zahtijevaju potpuno različite vrste sustava. I potpuno podcjenjivanje te raznolikosti maskira stvarne probleme povezane s, recimo, izrazito iskrivljenim podacima. Ovo je nesretno jer znači da su druga rješenja problema pristranosti podataka zanemarena.

Na primjer, pristranosti obučenog sustava strojnog prijevoda mogu se značajno smanjiti ako je sustav prilagođen nakon obuke na velikom, neizbježno pristranom skupu podataka.

To se može postići mnogo manjim, manje uklopljenim podacima. Stoga većina podataka može biti vrlo pristrana, ali obučeni sustav nije potreban. Nažalost, o tim metodama rijetko se raspravlja od onih koji razvijaju smjernice i zakonske okvire za istraživanje AI.

Ako AI sustavi jednostavno pogoršavaju postojeću socijalnu neravnotežu, vjerojatnije je da će obeshrabriti nego promicati pozitivne društvene promjene. Ako su AI tehnologije koje sve više svakodnevno koristimo bile daleko manje pristrane nego mi, one bi nam mogle pomoći da prepoznamo i suočimo se s vlastitim vrebanim predrasudama.

Naravno, tome bismo trebali težiti. Stoga AI dizajneri trebaju mnogo pažljivije razmišljati o društvenim implikacijama sustava koje stvaraju, dok oni koji pišu o AI moraju dublje shvatiti kako su AI sustavi zapravo dizajnirani i izgrađeni.

Jer ako se stvarno približimo ili tehnološkoj idili ili apokalipsi, prva bi bila poželjnija.

Victoria Vetrova