Jučer, 12.4.2023. u 18:08h, Greg Brockman, predsjednik i suosnivač OpenAI objavio je na Twitteru slijedeći komentar/stav:
“Temeljni duh u mnogim raspravama o tempu napretka umjetne inteligencije – da moramo vrlo ozbiljno shvatiti sigurnost i nastaviti s oprezom – ključan je za našu misiju. Proveli smo više od 6 mjeseci testirajući GPT-4 i učinivši ga još sigurnijim, izgradili smo ga na godinama istraživanja usklađivanja koje smo provodili u iščekivanju modela poput GPT-4.
Očekujemo da ćemo nastaviti povećavati svoje sigurnosne mjere proaktivnije nego što bi mnogi naši korisnici željeli. Naš opći cilj je da svaki model koji isporučimo bude naš najusklađeniji do sada, a to je do sada bilo istinito od GPT-3 (u početku implementiran bez ikakvog posebnog usklađivanja), GPT-3.5 (dovoljno usklađen da se može implementirati u ChatGPT) i sada GPT-4 (radi puno bolje na svim našim sigurnosnim metrikama nego GPT-3.5).
Vjerujemo (i to smo govorili u političkim raspravama s vladama) da bi provođenje moćnih treninga trebalo biti prijavljeno vladama, popraćeno sve sofisticiranijim predviđanjima njihove sposobnosti i utjecaja, zahtijevajući najbolje prakse kao što je opasno testiranje sposobnosti. Smatramo da su upravljanje velikim korištenjem računala, sigurnosnim standardima i regulacijom/dijeljenjem lekcija iz implementacije dobre ideje, ali detalji su stvarno važni i trebali bi se prilagođavati s vremenom kako se tehnologija razvija. Također je važno pozabaviti se cijelim spektrom rizika od današnjih problema (npr. sprječavanje zlouporabe ili samoozljeđivanja, ublažavanje predrasuda) do dugoročnih egzistencijalnih problema.
Možda su najčešća tema iz duge povijesti umjetne inteligencije bila netočna pouzdana predviđanja stručnjaka. Jedan od načina da se izbjegnu neuočene pogreške u predviđanju je da tehnologija u svom trenutnom stanju ima rani i česti kontakt sa stvarnošću dok se iterativno razvija, testira, implementira i cijelo vrijeme poboljšava. A postoje i kreativne ideje o kojima ljudi često ne raspravljaju, a koje mogu poboljšati sigurnosno okruženje na iznenađujuće načine — na primjer, lako je stvoriti kontinuum postupno boljih AI-ova (kao što je postavljanje sljedećih kontrolnih točaka danog treninga), koji predstavlja sigurnosnu priliku vrlo različitu od našeg povijesnog pristupa rijetkih velikih nadogradnji modela.
Nadolazeća transformativna tehnološka promjena umjetne inteligencije je nešto što je istovremeno razlog za optimizam i zabrinutost — cijeli niz emocija je opravdan i dijele ga i ljudi unutar OpenAI. Posebna je prilika i obveza za sve nas da smo živi u ovom vremenu, da imamo priliku zajedno osmišljavati budućnost.”
” …to be alive at this time,…” fraza potaknula je raspravu na Twitteru, očekujemo nove komentare.