Apel Instituta za budućnost života – Future of Life Institute
Uz izdanje GPT-4, OpenAI je objavio dva dokumenta: tehničko izvješće o mogućnostima GPT-4 i sistemsku karticu, koja detaljno opisuje mnoge rizike koje će GPT-4 predstavljati zajedno s naporima tvrtke da ublaži te štete.
Evo kratkog sažetka nekih problema koji se pojavljuju na kartici sustava:
▶ Veliki modeli će se razmnožavati: Metin jezični model – LLaMA – odmah je procurio preko BitTorrenta nekoliko dana nakon što je objavljen. Sada ga možete pokrenuti na računalu ako imate tehničke vještine.
▶ Neke štete su predvidljive: ako svi imaju moćne AI sustave u svojim džepovima, netko će učiniti loše stvari, poput preplavljenja interneta sintetičkim medijima. OpenAI, Stanford i Centar za sigurnost i nove tehnologije već su objavili izvješće u kojem se opisuju rizici dezinformacija.
▶ Moćni modeli mogu se koristiti na neočekivane načine: pokazalo se da umjesto toga možete koristiti komercijalno dostupan AI model namijenjen otkrivanju novih lijekova za stvaranje patogena. Ovaj model će trenutno generirati više od 40 tisuća patogena – uključujući VX, najsmrtonosniji nervni agens ikada – u otprilike šest sati
▶ Sigurnost i etika bit će žrtve AI utrke: S obzirom na to koliko su ovi sustavi sposobni, nije iznenađujuće da će se obje države i drugi AI laboratoriji utrkivati u nastojanjima da razviju vlastite velike modele. Žurba s uvođenjem ovih sustava vjerojatno će ih natjerati da ignoriraju važna sigurnosna razmatranja.
Zašto je ovo važno: Model ili kartice sustava relativno su novi mehanizmi transparentnosti. Njihov je cilj pružiti sveobuhvatan, ali pristupačan pregled o tome kako su programeri dizajnirali sustav umjetne inteligencije, uključujući detalje o podacima, algoritmima, performansama te etičkim i sigurnosnim pitanjima.
Izvješće OpenAI-ja odstupa od norme ne pružajući pojedinosti o GPT-4, ali karticu sustava ipak vrijedi pročitati u cijelosti s obzirom na to da opsežno pokriva ukupno 11 rizika i predstavlja važan aspekt sigurne implementacije snažnih modela.
Kartica sustava naglašava potrebu za pauziranjem ogromnih eksperimenata umjetne inteligencije: usprkos sveobuhvatnoj pokrivenosti potencijalnih rizika u kartici sustava, niti jedna tvrtka ne može identificirati i ublažiti sve štete povezane s jezičnim modelima ili predvidjeti njihov učinak na društvo.
Trebamo vremena da osmislimo ove sustave za jasnu dobrobit svih i da društvu damo priliku da se prilagodi.
S obzirom na visoke uloge koji su uključeni, u našem smo otvorenom pismu naveli neke odgovore upravljanja za koje smatramo da bi ih trebalo primijeniti prije nego što laboratoriji umjetne inteligencije obuče čak i veće modele. To uključuje:
▶Nova i sposobna regulatorna tijela posvećena umjetnoj inteligenciji;
▶ Nadzor i praćenje visoko sposobnih AI sustava i velikih skupova računalnih sposobnosti;
▶ Sustavi podrijetla i vodenih žigova koji pomažu u razlikovanju pravog od sintetičkog i za praćenje curenja modela; robustan ekosustav revizije i certificiranja;
▶ Odgovornost za štetu uzrokovanu umjetnom inteligencijom;
▶ Snažno javno financiranje tehničkog sigurnosnog istraživanja umjetne inteligencije;
▶ Institucije s dobrim resursima za suočavanje s dramatičnim ekonomskim i političkim poremećajima (osobito u demokraciji) koje će umjetna inteligencija uzrokovati.