Ne čitam svaki dan predviđanje propasti koje je tako zastrašujuće kao ono Eliezera Yudkowskog u časopisu Time prošlog tjedna.
“Najvjerojatniji rezultat izgradnje nadljudski pametne umjetne inteligencije, u bilo čemu sličnom sadašnjim okolnostima,” napisao je, “jest da će doslovno svi na Zemlji umrijeti. Ne kao u ‘možda neka daleka prilika’, nego kao u ‘to je očita stvar koja bi se dogodila.’ … Ako netko izgradi premoćnu AI, pod sadašnjim uvjetima, očekujem da će svaki pojedini član ljudske vrste i sav biološki život na Zemlji umrijeti ubrzo nakon toga.” On sugerira da bi takva umjetna inteligencija mogla lako pobjeći s interneta “kako bi izgradila umjetne oblike života”, zapravo vodeći biološki rat protiv nas. Njegova preporuka je jasna. Trebamo potpuni, globalni moratorij na razvoj umjetne inteligencije.
Ovo ide puno dalje od otvorenog pisma koje su potpisali Elon Musk, Steve Wozniak (suosnivač Applea) i više od 15.000 poznatih osoba koji pozivaju na šestomjesečnu pauzu u razvoju AI moćnijih od trenutnog stanja tehnike. Ali njihova je motivacija ista kao Yudkowskyjeva: uvjerenje da razvoj umjetne inteligencije s nadljudskim sposobnostima u nedostatku bilo kakvog međunarodnog regulatornog okvira riskira katastrofu. Jedina stvarna razlika je u tome što Yudkowsky sumnja da se takav okvir može osmisliti unutar pola godine. Gotovo je sigurno da je u pravu u vezi s tim.
Dakle, ako je Yudkowsky u pravu da je umjetna inteligencija potencijalno opasna kao nuklearno ili biološko oružje, šestomjesečna stanka vjerojatno neće postići mnogo. S druge strane, njegov poziv na potpuno zamrzavanje istraživanja i razvoja ima približno jednake šanse za uspjeh kao i Baruchov plan o internacionalizaciji nuklearnih istraživanja.
Jedna očita razlika između tih starijih smrtonosnih oružja i umjetne inteligencije jest da većinu istraživanja o umjetnoj inteligenciji provodi privatni sektor. Prema posljednjem izvješću Stanfordskog instituta za umjetnu inteligenciju usmjerenu na čovjeka, globalna privatna ulaganja u umjetnu inteligenciju iznosila su 92 milijarde dolara u 2022. godini, od čega je više od polovice bilo u SAD-u. Privatne tvrtke proizvele su ukupno 32 značajna modela strojnog učenja, u usporedbi sa samo tri koja su proizvele akademske institucije. Sretno u isključivanju svega toga.
Moj kolega Tyler Cowen bio je pragmatičniji. Postavio je neka hipotetska pitanja: “Što da smo 2006. kolektivno odlučili obustaviti razvoj društvenih medija na šest mjeseci dok smo razmišljali o mogućim štetama od njihove široke upotrebe? Njegovi učinci u to vrijeme jedva da su bili očiti i još uvijek se osporavaju. U međuvremenu, nakon šestomjesečne odgode, koliko bismo još bili u procesu evaluacije? Pa čak i ako američke tvrtke uvedu šestomjesečnu pauzu, tko može reći da će kineske tvrtke učiniti?”
Ali najelokventniji branitelj neobuzdanog istraživanja i razvoja umjetne inteligencije moj je stari prijatelj Reid Hoffman, osnivač LinkedIna, koji je napisao cijelu knjigu o toj temi… otprilike polovicu knjige generirala je umjetna inteligencija.
Za čitatelja laika problem ove rasprave je dvojak. Prvo, čini se da svi branitelji umjetne inteligencije dosta ulažu u umjetnu inteligenciju. Drugo, oni uglavnom priznaju da postoji barem određeni rizik u razvoju AI-a s inteligencijom superiornijom od naše. Čini se da je Hoffmanova poanta: vjerujte nam da ćemo ovo učiniti etički, jer ako nas obuzdate, negativci će biti ti koji će raditi na razvoju i tada ćete možda dobiti Skynet.
Započnimo tako što ćemo biti precizniji o čemu raspravljamo. Većina AI radi stvari koje nude dobrobiti, a ne prijetnje čovječanstvu. Na primjer, DeepMindov AlphaFold odredio je strukture oko 200 milijuna proteina, što je veliki znanstveni korak naprijed.
Rasprava koju danas vodimo odnosi se na određenu granu umjetne inteligencije: velike jezične modele (LLM) koje proizvode organizacije kao što je OpenAI, posebice ChatGPT i njegov snažniji nasljednik GPT-4. Pozadina OpenAI-ja je fascinantna. Kad sam se prije sedam godina preselio u Kaliforniju, sudjelovao sam u raspravi sa Samom Altmanom, jednim od osnivača OpenAI.
Poput svog bivšeg partnera Elona Muska, Altman je u nekom trenutku shvatio da je podučavanje neuronskih mreža vožnji teže nego što su pretpostavljali. Stoga se OpenAI okrenuo LLM-u.
Međutim, ubrzo je postalo očito da je izgradnja LLM-a dovoljno snažnog za generiranje vjerodostojnih rezultata preskupa za neprofitnu organizaciju zbog ogromne računalne snage koja je potrebna. Tako je Altman stvorio profitni ogranak OpenAI-ja i prodao veliki udio izvršnom direktoru Microsofta Satyi Nadelli, koji je vidio zlatnu priliku da uhvati korak s Googleom, dotadašnjim liderom u razvoju umjetne inteligencije.
“Dugoročno”, rekao je Altman za Wall Street Journal, želi “postaviti globalnu upravljačku strukturu koja bi nadzirala odluke o budućnosti umjetne inteligencije i postupno smanjivala moć izvršnog tima OpenAI-ja nad svojom tehnologijom.” Krajnja je misija OpenAI-ja, nastavio je, “sigurno” izgraditi umjetnu opću inteligenciju. Cilj je “izbjeći utrku prema izgradnji opasnih AI sustava potaknutih konkurencijom i umjesto toga dati prednost sigurnosti čovječanstva.”
Kratkoročno, međutim, Altman je sada dio te utrke. I to je, naravno, razlog zašto se posvađao ne samo s Muskom, čija je tvrtka Tesla također u utrci, već i s vodećim istraživačem sigurnosti OpenAI-ja, Dariom Amodeijem, koji je napustio OpenAI kako bi osnovao vlastitu AI tvrtku pod nazivom Anthropic , iza kojeg stoji … Google.
Dakle, koliko je opasna ova utrka za profitni LLM? Površno gledano, uopće nije opasno. Kao što moj omiljeni genij, Stephen Wolfram, objašnjava, umjetna inteligencija kao što je ChatGPT “u osnovi uvijek pokušava … proizvesti ‘razuman nastavak’ bilo kojeg teksta koji je do sada dobio, gdje pod ‘razumnim’ mislimo na ‘ono što bi netko mogao očekivati napisano nakon što ste vidjeli što su ljudi napisali na milijardama web-stranica.’ … Kada ChatGPT radi nešto poput pisanja eseja, ono što zapravo radi jest samo pita uvijek iznova ‘s obzirom na dosadašnji tekst, koja bi trebala biti sljedeća riječ?’ — i svaki put dodajući riječ.”
GPT-4 je samo još snažnija neuronska mreža za predviđanje riječi, koja obavlja ogroman broj operacija na nizovima brojeva s GPU-ovima — procesorskim jedinicama koje su izvorno dizajnirane za ubrzavanje grafičkog prikazivanja. Kao rezultat toga, njegov je rezultat još uvjerljivije ljudski nego ChatGPT-ov.
Ne samo da je to prilično vjerojatno, već prema iscrpnom izvješću Bubeck et al. (2023.), GPT-4 također može “riješiti nove i teške zadatke koji obuhvaćaju matematiku, kodiranje, viziju, medicinu, pravo, psihologiju i još mnogo toga, bez potrebe za bilo kakvim posebnim poticajima” i s “izrazito bliskim performansama na ljudskoj razini”.
Dopustite mi da sada ponudim drugačiju analogiju od nuklearnih bombi i biološkog ratovanja. Što više čitam o GPT-4, to više mislim da ovdje ne govorimo o umjetnoj inteligenciji (tj. sintetičkoj ljudskoj inteligenciji), već o neljudskoj inteligenciji, koju smo osmislili i istrenirali da zvuči uvjerljivo poput nas.
Kao što moj kolega s Hoover Instituta Manny Rincon-Cruz kaže: LLM-i ne manipuliraju atomima ili bitovima; manipuliraju nama. I nije toliko važno da će GPT-5 “odlučiti” da nas zbriše. Umjesto toga, rizik je da ćemo se raskomadati kao vrsta korištenjem LLM-a za neplemenite ili podle ciljeve.
Niall Ferguson je kolumnist Bloomberg Opinion. Viši suradnik Milbank Family, Hoover Institution na Sveučilištu Stanford i osnivač Greenmantlea, savjetodavne tvrtke, nedavno je autor knjige “Doom: The Politics of Catastrophe”.
Objavljeno na Bloomberg stranicama, 9.4.2023.g.