Iako se deepfake pornografija bez pristanka godinama koristi za mučenje žena, najnovija generacija umjetne inteligencije čini to još većim problemom. Ti su sustavi puno lakši za korištenje od prethodne tehnologije deepfakea i mogu generirati slike koje izgledaju potpuno uvjerljivo.
Sustavi umjetne inteligencije od slike do slike, koji ljudima omogućuju uređivanje postojećih slika pomoću generativne umjetne inteligencije, “mogu biti vrlo visoke kvalitete… jer se u osnovi temelje na jednoj postojećoj slici visoke rezolucije”, govori Ben Zhao, profesor informatike na Sveučilištu u Chicagu. “Rezultat koji iz toga proizlazi je iste kvalitete, ima istu rezoluciju, ima istu razinu detalja, jer često [AI sustav] samo pomiče stvari.”
Ali pojavljuju se novi alati koji bi mogli pomoći ljudima da zaštite svoje slike od AI manipulacije. PhotoGuard su stvorili istraživači s MIT-a i djeluje kao zaštitni štit za fotografije. Mijenja ih na načine koji su nama neprimjetni, ali sprječava AI sustave da petljaju s njima. Ako netko pokuša urediti sliku koju je “imunizirao” PhotoGuard pomoću aplikacije koja se temelji na generativnom AI modelu kao što je Stable Diffusion, rezultat će izgledati nerealno ili iskrivljeno.
Druga, učinkovitija tehnika naziva se difuzijski napad. Ometa način na koji AI modeli generiraju slike, u biti tako što ih kodiraju tajnim signalima koji mijenjaju način na koji ih model obrađuje. Ova tehnika je “dobra kombinacija opipljive potrebe za nečim s onim što se može učiniti upravo sada”, kaže Ben Zhao, profesor informatike na Sveučilištu u Chicagu, koji je razvio zaštitnu metodu pod nazivom Glaze koju umjetnici mogu koristiti za sprječavanje da se njihov rad ne preslika u AI modele. No umjesto da štiti fotografije ljudi, pomaže umjetnicima da spriječe da se njihova djela zaštićena autorskim pravima i umjetnički stilovi ugrabe u skupove podataka za obuku za AI modele. Neki su se umjetnici pobunili otkako su na scenu stupili AI modeli za generiranje slika poput Stable Diffusion i DALL-E 2, tvrdeći da tehnološke tvrtke kradu njihovo intelektualno vlasništvo i koriste ga za treniranje takvih modela bez naknade ili kredita.
Glaze, koji su razvili Zhao i tim istraživača sa Sveučilišta u Chicagu, pomaže im u rješavanju tog problema. Glazura “prekriva” slike, primjenjujući suptilne promjene koje su jedva primjetne ljudima, ali sprječavaju AI modele da nauče značajke koje definiraju stil određenog umjetnika. Zhao kaže da Glaze kvari procese generiranja slika AI modela, sprječavajući ih da izbace beskonačan broj slika koje izgledaju kao rad određenih umjetnika.
PhotoGuard ima online demo koji radi sa Stable Diffusion, a umjetnici će uskoro imati pristup Glazeu. Zhao i njegov tim trenutno testiraju beta verziju sustava i omogućit će uskoro ograničenom broju umjetnika da se prijave za korištenje.
Ali ti alati nisu ni savršeni ni dovoljni sami za sebe. Još uvijek možete napraviti snimku zaslona slike zaštićene PhotoGuardom i upotrijebiti AI sustav za uređivanje, na primjer. I dok dokazuju da postoje zgodna tehnička rješenja za problem uređivanja slika pomoću umjetne inteligencije, sami su bezvrijedni osim ako tehnološke tvrtke ne počnu šire usvajati alate poput njih. Trenutačno su naše slike na mreži otvorene za svakoga tko ih želi zloupotrijebiti ili manipulirati njima pomoću umjetne inteligencije.
Najučinkovitiji način da spriječimo loše aktere da manipuliraju našim slikama bio bi da platforme društvenih medija i AI tvrtke pruže načine da ljudi imuniziraju svoje slike i da to uspijeva sa svakim ažuriranim modelom AI.
U dobrovoljnom obećanju Bijeloj kući, vodeće AI tvrtke obećale su da će “razviti” načine otkrivanja sadržaja generiranog AI-jem. Međutim, nisu obećali da će ih usvojiti. Ako su ozbiljni u zaštiti korisnika od štete generativne umjetne inteligencije, usvajanje je možda najvažniji prvi korak.
The Algorithm, MIT