Najopasnija Umjetna Inteligencija Na Svijetu Razvijena Je: što Može Učiniti? - Alternativni Prikaz

Najopasnija Umjetna Inteligencija Na Svijetu Razvijena Je: što Može Učiniti? - Alternativni Prikaz
Najopasnija Umjetna Inteligencija Na Svijetu Razvijena Je: što Može Učiniti? - Alternativni Prikaz

Video: Najopasnija Umjetna Inteligencija Na Svijetu Razvijena Je: što Može Učiniti? - Alternativni Prikaz

Video: Najopasnija Umjetna Inteligencija Na Svijetu Razvijena Je: što Može Učiniti? - Alternativni Prikaz
Video: TESLINO PREDVIĐANJE SE OSTVARUJE! A SIGURNO NISTE ZNALI ZA OVE TESLINE IZUME! 2024, Svibanj
Anonim

Tvrtka OpenAI, čiji je Elon Musk jedan od osnivača, najavila je stvaranje napredne umjetne inteligencije za pisanje originalnih tekstova na zadanu temu. Trebalo je prevesti tekstove na druge jezike, odgovarati na pitanja i obavljati druge korisne zadatke, ali istraživanje je pokazalo da može biti izuzetno opasno i uljezi ga mogu koristiti za masovno zavaravanje ljudi. U vezi s tim, tvrtka je odlučila pokazati javnosti samo ograničenu verziju, a izvornik zadržati pod strožim povjerenjem.

Računalni model nazvan je GPT-2 i osposobljen je na 8 milijuna web stranica. Tekstovi napisani na njima čine osnovu novih materijala na temu koju je osoba postavila: na primjer, umjetna inteligencija može sastaviti čitav esej o pozitivnim aspektima recikliranja smeća ili fantasy priču u stilu "Gospodar prstenova". Međutim, istraživači su također otkrili da sustav izvrsno piše pisanje lažnih vijesti o slavnim ličnostima, katastrofama, pa čak i ratovima.

Trenutno je potpuna verzija alata za stvaranje teksta dostupna samo programerima i nekim koji su doprinijeli MIT Technology Review. Zbog činjenice da se mogu koristiti za nekontrolirano stvaranje lažnih vijesti i objava na društvenim mrežama, odlučeno je da se one ne objavljuju u javnoj domeni i da se čuvaju u tajnosti.

ScienceAlert podijelio je primjer lažnih vijesti:

Tekst kratkog eseja o kontrastu recikliranja smeća možete pročitati na blogu OpenAI.

Programeri priznaju da jezični model u ovom trenutku nije idealan: sustav ponekad dopušta ponavljanje određenih fragmenata teksta, neprirodno prebacivanje tema i neuspjehe svjetskog modeliranja. Na primjer, u jednoj od faza ispitivanja sustav je pisao o požaru koji gori pod vodom.

Promotivni video:

Prema Jacku Clarkeu, direktoru AI politike politike, nakon nekoliko godina, takav se algoritam može pretvoriti u opasno oružje masovnog zavaravanja ljudi. Neki kritičari uvjereni su da tehnologija nije ni na koji način opasna, a tvrtka jednostavno privlači pažnju na sebe.