Umjetna Inteligencija Ispostavila Se Kao Rasistička I Mdash; Alternativni Prikaz

Umjetna Inteligencija Ispostavila Se Kao Rasistička I Mdash; Alternativni Prikaz
Umjetna Inteligencija Ispostavila Se Kao Rasistička I Mdash; Alternativni Prikaz

Video: Umjetna Inteligencija Ispostavila Se Kao Rasistička I Mdash; Alternativni Prikaz

Video: Umjetna Inteligencija Ispostavila Se Kao Rasistička I Mdash; Alternativni Prikaz
Video: UMJETNA INTELIGENCIJA 2024, Svibanj
Anonim

Studija koju su proveli znanstvenici s Massachusetts Institute of Technology otkrila je detalje procesa analize podataka umjetnom inteligencijom koja se u odlučivanju često vodi seksističkim i rasističkim stereotipima. Nekoliko sustava koji su sudjelovali u eksperimentu pokazalo je podložnost ljudskim predrasudama.

Britanski list "The Daily Mail" piše da se nakon primanja rezultata studije tim znanstvenika obvezao reprogramirati umjetnu inteligenciju, uklanjajući prethodne probleme. Prema Irene Chen, koja radi na Massachusetts tehnološkom institutu, računalni znanstvenici teže žuriti sa zaključkom da je jedini način za uklanjanje elemenata rasizma i seksizma u algoritmima umjetne inteligencije poboljšanje softverskog koda. Kvaliteta algoritama izravno je proporcionalna podacima na kojima rade. Istraživanje Chena s Davidom Sontagom i Fredrikom D. Johannsonom pokazuje da više dostupnih podataka može radikalno promijeniti stvari na bolje.

U jednom eksperimentu tim je pregledao sustav koji je predviđao dohodak osobe na temelju dostupnih informacija. Analiza je pokazala da je u 50% slučajeva algoritam sklon predvidjeti da će dohodak žene u prosjeku biti manji od muškog. Povećavajući količinu dostupnih podataka 10 puta, znanstvenici su otkrili da se faktor takve pogreške smanjio za 40%.

Štoviše, u studiji o sustavu koji se koristi u bolnicama i predviđa preživljavanje pacijenata koji su podvrgnuti teškim operacijama, točnost predviđanja bila je mnogo manja za mongloidnu rasu nego za kavkaske i negroide. Međutim, znanstvenici tvrde da uporaba napredne tehnike analize može značajno smanjiti točnost predviđanja za pacijente koji ne pripadaju mongloidnoj rasi. To pokazuje da više dostupnih podataka ne mora uvijek ispraviti pogreške algoritma. Umjesto toga, znanstvenici bi trebali dobiti više informacija o diskriminiranim skupinama.

Nova metoda postavlja još jedno pitanje istraživačima strojnog učenja o tome kako učinkovito analizirati podatke bez postojeće diskriminacije.

Kako funkcionira strojno učenje u sistemima koji pokreću AI?

Sustavi umjetne inteligencije temelje se na umjetnim neuronskim mrežama (ANN), koje ekstrapoliraju tehnike pohrane i učenja informacija koje koristi ljudski mozak mehaničkim sustavima. ANN treniraju da pronađu uzorke u dostupnim izvorima informacija, uključujući govor, tekst i slike. Poboljšanje točnosti analize podataka jedan je od osnovnih preduvjeta koji su prethodili najnovijim dostignućima u umjetnoj inteligenciji.

"Normalna" umjetna inteligencija koristi ulazne podatke da algoritam govori o predmetu analize, dok djeluje s ogromnom količinom informacija.

Promotivni video:

Praktične aplikacije strojnog učenja uključuju Google prevoditeljske usluge, prepoznavanje lica s Facebook fotografija i filtre u Snapchatu koji skeniraju lica prije primjene vizualnih efekata na mreži.

Proces unošenja podataka često je dugotrajan i obično je ograničen protokom informacija o jednom aspektu ispitivanog objekta. Nova vrsta ANN-a - generativna adversarijalna neuronska mreža - suprotstavlja se mogućnostima dva različita robota s umjetnom inteligencijom odjednom, izazivajući manje inteligentan sustav da uči na štetu drugog bez ljudskog sudjelovanja. Ova tehnika značajno poboljšava učinkovitost i brzinu strojnog učenja uz istovremeno povećanje kvalitete analize podataka.

Oliy Kurilov

Preporučeno: