U manje od tjedan dana otkako je Meta lansirala svoj AI model LLaMA 2, startupi i istraživači već su ga upotrijebili za razvoj chatbota i AI asistenta. Bit će samo pitanje vremena kada će tvrtke početi lansirati proizvode izgrađene s modelom.
LLaMA 2 mogla bi predstavljati prijetnju za OpenAI, Google i druge. Posjedovanje brzog, transparentnog i prilagodljivog modela koji je besplatan za korištenje moglo bi pomoći tvrtkama u stvaranju AI proizvoda i usluga brže nego što bi mogle s velikim, sofisticiranim vlasničkim modelom kao što je OpenAI GPT-4.
Ali ono što se ističe je mjera u kojoj Meta širom otvara svoja vrata. Omogućit će široj AI zajednici preuzimanje modela i njegovo podešavanje. To bi ga moglo učiniti sigurnijim i učinkovitijim. I što je ključno, moglo bi pokazati prednosti transparentnosti u odnosu na tajnost kada je riječ o unutarnjem funkcioniranju AI modela. Ovo ne može biti pravodobnije ili važnije.
Tehnološke tvrtke žure pustiti svoje AI modele u “divljinu”, dok vidimo generativnu AI ugrađenu u sve više proizvoda. Ali najmoćnije modele, poput OpenAI-jevog GPT-4, njihovi tvorci strogo čuvaju. Programeri i istraživači plaćaju da bi dobili ograničeni pristup takvim modelima putem web stranice i ne znaju pojedinosti o njihovom unutarnjem funkcioniranju.
Ova neprozirnost mogla bi dovesti do problema u nastavku, kao što je istaknuto u novom, nerecenziranom radu koji je prošlog tjedna izazvao buku. Istraživači sa Sveučilišta Stanford i UC Berkeley otkrili su da su GPT-3.5 i GPT-4 imali lošije rezultate u rješavanju matematičkih problema, odgovaranju na osjetljiva pitanja, generiranju koda i vizualnom zaključivanju nego prije nekoliko mjeseci.
Zbog nedostatka transparentnosti ovih modela teško je točno reći zašto bi to moglo biti, ali bez obzira na to, rezultate treba uzeti s rezervom, piše u svojoj procjeni profesor informatike s Princetona Arvind Narayanan. Vjerojatnije su uzrokovane “hirovitostima procjene” nego dokazom da je OpenAI pogoršao modele. On smatra da su istraživači propustili uzeti u obzir da je OpenAI fino podesio modele kako bi bolje funkcionirali i da je to nenamjerno uzrokovalo da neke tehnike podsticanja prestanu raditi kao što su radile u prošlosti.
Ovo ima neke ozbiljne implikacije. Tvrtke koje su izradile i optimizirale svoje proizvode za rad s određenom iteracijom OpenAI-jevih modela mogle bi “100%” vidjeti da se iznenada kvare i pokvare, kaže Sasha Luccioni, istraživač umjetne inteligencije u startupu Hugging Face. Kada OpenAI fino podešava svoje modele na ovaj način, proizvodi koji su izrađeni korištenjem vrlo specifičnih upita, na primjer, mogu prestati raditi na način na koji su radili prije. Zatvorenim modelima nedostaje odgovornosti, dodaje ona. “Ako imate proizvod i promijenite nešto u proizvodu, trebali biste reći svojim kupcima.”
Otvoreni model poput LLaMA 2 barem će razjasniti kako je tvrtka dizajnirala model i koje je tehnike obuke koristila. Za razliku od OpenAI-ja, Meta je podijelila cijeli recept za LLaMA 2, uključujući pojedinosti o tome kako je trenirana, koji je hardver korišten, kako su podaci označeni i koje su tehnike korištene za ublažavanje štete. Ljudi koji istražuju i grade proizvode na ovom modelu znaju točno na čemu rade, kaže Luccioni.
“Jednom kada dobijete pristup modelu, možete izvoditi razne vrste eksperimenata kako biste bili sigurni da ćete dobiti bolje performanse ili manje pristranosti, ili što god već tražite”, kaže ona.
U konačnici, otvorena naspram zatvorena rasprava oko umjetne inteligencije svodi se na to tko odlučuje. S otvorenim modelima korisnici imaju više snage i kontrole. Sa zatvorenim modelima prepušteni ste na milost i nemilost njihovom tvorcu. Imati veliku tvrtku kao što je Meta koja objavljuje tako otvoren, transparentan model umjetne inteligencije čini se kao potencijalna prekretnica u generativnoj zlatnoj groznici umjetne inteligencije.
Ako se proizvodi izgrađeni na razvikanim vlasničkim modelima iznenada pokvare na neugodan način, a razvojni programeri ne znaju zašto bi to moglo biti, otvoreni i transparentni AI model sa sličnim performansama odjednom će se činiti kao mnogo privlačniji—i pouzdaniji— izbor.
Meta ovo ne radi u dobrotvorne svrhe. Ima mnogo koristi ako dopusti drugima da ispitaju nedostatke u njegovim modelima. Ahmad Al-Dahle, potpredsjednik u Meta-i koji vodi njezin generativni rad na umjetnoj inteligenciji, rekao je da će tvrtka preuzeti ono što nauči od šire vanjske zajednice i koristiti to kako bi nastavila poboljšavati svoje modele.
Ipak, to je korak u pravom smjeru, kaže Luccioni. Ona se nada da će Meta-in potez izvršiti pritisak na druge tehnološke tvrtke s AI modelima da razmotre otvoreniji put.
The Algorithm, MIT