Publikacija “Superintelligence Strategy: Expert Version” autora Dana Hendrycksa, Erica Schmidta i Alexandera Wanga bavi se strategijama za upravljanje rizicima i prilikama koje donosi razvoj superinteligentnih umjetnih inteligencija (AI). Autori ističu da brzi napredak u AI tehnologijama može imati duboke implikacije na nacionalnu sigurnost, globalnu stabilnost i ekonomsku konkurentnost. Kako bi se suočili s ovim izazovima, autori predlažu trodijelnu strategiju koja uključuje odvraćanje, neproliferaciju i konkurentnost.
- Odvraćanje (Deterrence): Autori uvode koncept “Mutual Assured AI Malfunction” (MAIM), koji se može usporediti s nuklearnim odvraćanjem (MAD). MAIM podrazumijeva da će države koje pokušaju ostvariti jednostranu dominaciju putem superinteligentnih AI sustava biti suočene s prijetnjom sabotaže od strane drugih država. Ova strategija oslanja se na to da je relativno lako sabotirati AI projekte, bilo kibernetskim napadima ili fizičkim uništavanjem infrastrukture.
- Neproliferacija (Nonproliferation): Kako bi se spriječilo širenje opasnih AI tehnologija u ruke terorista ili drugih neodgovornih aktera, autori predlažu stroge kontrole nad distribucijom AI čipova, zaštitu informacija (kao što su težinski modeli) i implementaciju sigurnosnih mjera kako bi se spriječila zloupotreba AI sustava.
- Konkurentnost (Competitiveness): Države moraju ulagati u razvoj AI tehnologija kako bi ojačale svoju ekonomsku i vojnu moć. To uključuje razvoj domaće proizvodnje AI čipova, integraciju AI u vojne sustave, te stvaranje pravnih okvira koji reguliraju ponašanje AI agenata.
Ključni zaključci:
- Superinteligencija kao nacionalna sigurnosna prijetnja: Superinteligentni AI sustavi mogu biti opasni ako izmaknu kontroli ili ako ih zloupotrijebe države ili neodgovorni akteri. Stoga je potrebna globalna strategija za upravljanje ovim rizicima.
- MAIM kao odvraćajući mehanizam: Koncept MAIM može poslužiti kao stabilizirajući faktor u međudržavnim odnosima, slično kao što je nuklearno odvraćanje spriječilo nuklearni rat. Države će biti obeshrabrene od pokušaja stvaranja superinteligentnih sustava zbog straha od sabotaže.
- Kontrola distribucije AI tehnologija: Kako bi se spriječila zloupotreba AI tehnologija, potrebno je uspostaviti stroge kontrole nad distribucijom AI čipova i zaštititi osjetljive informacije poput težinskih modela.
- Ekonomska i vojna konkurentnost: Države koje žele ostati konkurentne moraju ulagati u razvoj AI tehnologija, posebno u domaću proizvodnju AI čipova i integraciju AI u vojne sustave.
- Pravni okviri za AI: Potrebno je uspostaviti pravne okvire koji će regulirati ponašanje AI agenata, osiguravajući da oni djeluju u skladu s ljudskim vrijednostima i ne uzrokuju štetu.
- Rizici od gubitka kontrole: Jedan od najvećih rizika je gubitak kontrole nad superinteligentnim AI sustavima, što može dovesti do katastrofalnih posljedica. Stoga je ključno osigurati da AI sustavi ostanu pod ljudskom kontrolom.
- Suradnja među državama: Kao što je suradnja u nuklearnom dobu bila ključna za sprječavanje katastrofe, tako je i u eri AI potrebna međunarodna suradnja kako bi se spriječile najveće prijetnje.
Publikacija naglašava da su rizici povezani s superinteligencijom preveliki da bi se zanemarili, te da je potrebna sveobuhvatna strategija koja će omogućiti sigurno i odgovorno korištenje AI tehnologija.