Zašto Je Umjetna Inteligencija Koja Sudi Zločincima Opasna? - Alternativni Pogled

Sadržaj:

Zašto Je Umjetna Inteligencija Koja Sudi Zločincima Opasna? - Alternativni Pogled
Zašto Je Umjetna Inteligencija Koja Sudi Zločincima Opasna? - Alternativni Pogled

Video: Zašto Je Umjetna Inteligencija Koja Sudi Zločincima Opasna? - Alternativni Pogled

Video: Zašto Je Umjetna Inteligencija Koja Sudi Zločincima Opasna? - Alternativni Pogled
Video: Treći element S6E31: Umjetna inteligencija - kraj ljudskog roda? 2024, Svibanj
Anonim

Umjetna inteligencija već na neki način pomaže odrediti vašu budućnost. Kada nešto tražite na tražilici, koristite uslugu poput Netflixa ili banka procjenjuje vašu prikladnost za hipoteku. Ali što se događa ako umjetna inteligencija na sudu mora utvrditi jeste li krivi ili ne? Čudno, to se možda već događa u nekim zemljama. Nedavno je američki visoki pravosuđe John Roberts upitan može li zamisliti dan kada će "pametni strojevi, kontrolirani umjetnom inteligencijom, pomoći u pronalaženju dokaza ili čak u donošenju sudskih odluka". Odgovorio je: "Ovaj je dan već došao i on značajno pomaže pravosudnim vlastima u postupku."

Možda se Roberts referirao na nedavni slučaj Erica Loomisa, koji je na preporuku tajnog vlasničkog softvera privatne tvrtke osuđen na šest godina zatvora. Loomis, koji je već imao kriminalnu povijest i osuđen je zbog bijega od policije ukradenim automobilom, sada tvrdi da mu je povrijeđeno pravo na postupak jer ni on ni njegovi predstavnici nisu uspjeli pregledati ili osporiti algoritam preporuke.

Izvješće je pripremio softver Compas koji Notrpointe prodaje brodovima. Program utjelovljuje novi trend u istraživanju umjetne inteligencije: pomaganje sucima da donesu "bolje" (ili barem više podatke temelje) odluke na sudu.

Iako su konkretni detalji slučaja Loomis i dalje zatvoreni, on sigurno sadrži tablice i brojeve koji definiraju Loomisov život, ponašanje i vjerojatnost recidiva. To uključuje dob, rasu, spolni identitet, navike, povijest preglednika i neka mjerenja lubanje. Nitko preciznije ne zna.

Poznato je da je tužitelj u tom slučaju rekao sucu da je Loomis pokazao "visok rizik od recidiva, nasilja, pretkrivičnog postupka". To je standardno kada je u pitanju izricanje kazne. Sudac se složio i rekao Loomisu da ga je "Compas prepoznao kao osobu visokog rizika za društvo".

Vrhovni sud u Wisconsinu osudio je Loomisa, dodavši da je izvješće Compasa dodalo dragocjene informacije njegovoj odluci, ali napomenuo je da je bez njega izrekao istu kaznu. Naravno, ovo nećete moći provjeriti sa sigurnošću. Kakve kognitivne pristranosti mogu postojati kad je svemogući "pametni" sustav poput Compasa uključen u savjetovanje sudaca što treba učiniti?

Nepoznata upotreba

Promotivni video:

Budimo iskreni, ne postoji ništa „nezakonito“u onome što je učinio sud u Wisconsinu - ovo je samo primjer. To mogu činiti i drugi sudovi.

Nažalost, ne znamo u kojoj se mjeri AI i drugi algoritmi koriste u izricanju kazne. Vjeruje se da neki sudovi "testiraju" sustave poput Compasa na zatvorenim suđenjima, ali ne mogu zatražiti partnerstvo. Također postoji percepcija da nekoliko AI startupa razvija takve pametne sustave.

Image
Image

Međutim, upotreba AI u zakonodavstvu ne započinje niti završava rečenicom, već započinje istragom. Velika Britanija je već razvila sustav VALCRI koji za nekoliko sekundi obavlja dugotrajan analitički posao - provlačeći se kroz tone podataka poput tekstova, laboratorijskih izvještaja i policijskih dokumenata kako bi istaknuo stvari koje bi mogle zahtijevati daljnju istragu.

UK West Midlands policija testirat će VALCRI tijekom sljedeće tri godine koristeći anonimne podatke koji sadrže preko 6,5 milijuna zapisa. Sličan test provodi i policija Antwerpena u Belgiji. Međutim, u prošlosti su problemi bili AI i projekti dubokog učenja koji uključuju masovne skupove podataka.

Prednosti za nekolicinu

Tehnologija je sudnicama pružila mnoga korisna pomagala, od strojeva za kopiranje do vađenja DNA iz otisaka prstiju do sofisticiranih tehnika nadzora. Ali to ne znači da je bilo koja tehnologija poboljšanje.

Iako upotreba umjetne inteligencije u istragama i osudama potencijalno može uštedjeti vrijeme i novac, ona predstavlja akutne probleme. Izvještaj Compasa iz ProPublice jasno je pokazao da je program pogrešno smatrao da su crnci više recidivisti od bijelaca. Čak i najsofisticiraniji AI sustavi mogu naslijediti rasne i rodne predrasude onih koji ih stvaraju.

Štoviše, koja je svrha prebacivanja donošenja odluka (barem djelomično) o pitanjima koja su jedinstvena za ljude na algoritam? U Sjedinjenim Državama postoje određene poteškoće kada porote sude svojim vršnjacima. Pravni standardi nikada nisu bili mjerilo, zbog čega se ovi porotni procesi smatraju najdemokratskijim i najučinkovitijim sustavom osude. Griješimo, ali s vremenom skupljamo znanje kako ih ne činiti, usavršavajući sustav.

Kompasi i slični sustavi predstavljaju crnu kutiju u pravnom sustavu. Takvih ne bi trebalo biti. Pravni sustavi ovise o kontinuitetu, transparentnosti informacija i mogućnosti revizije. Društvo ne želi sustav koji potiče utrku na izgradnju AI startupa koji čine brza, jeftina i ekskluzivna rješenja. Na brzinu napravljen AI bit će užasan.

Ažurirana verzija Compasa s otvorenim kodom bila bi poboljšanje. Ali prvo, standardi pravosudnog sustava morat će se podići prije nego što počnemo prebacivati odgovornost u korist algoritama.

ILYA KHEL

Preporučeno: