<img height="1" width="1" style="display:none" src="https://www.facebook.com/tr?id=198245769678955&ev=PageView&noscript=1"/>

Ovo postaje sve opasnije, kako prepoznati deepfake video?

VIDEO

Šta je deepfake?

14. januar 2020, 10:27

 

LAŽNE videosnimke napravljene deepfake tehnologijom postaju sve češće i realističnije i postoje ozbiljni razlozi za zabrinutost, piše Guardian.

Što je deepfake?

Možda ste do sada na internetu već pogledali videosnimku na kojoj Barack Obama naziva Donalda Trumpa "potpunom sramotom" ili Marka Zuckerberga kako se hvali da ima "potpunu kontrolu nad milijardama ukradenih podataka ljudi". Ili možda videosnimku u kojoj se John Snow ispričava zbog neslavnog završetka serije Igre prijestolja? Ako je odgovor potvrdan, bili ste žrtva deepfake trenda. Ono što je photoshop za fotografije, deepfake tehnologija je za videosnimke. Radi se o obliku umjetne inteligencije koji na postojeće videosnimke ugrađuje tuđa lica. Ako želite staviti nečije riječi u usta određenog političara, glumiti u omiljenom filmu ili plesati kao profesionalac, sada postoji način kako to falsificirati.

Čemu služi?

Više od 15.000 lažnih videosnimki pronađeno je na internetu u rujnu 2019., skoro dvostruko više u odnosu na početak godine. U ogromnom broju slučajeva (96%) u pitanju su pornografske videosnimke, a 99% lažnih, mapiranih lica bile su ženske javne ličnosti ili porno zvijezde. S obzirom na to da nove tehnologije omogućavaju čak i nekvalificiranim osobama da uz pregršt dostupnih fotografija prave lažne videosnimke, one će se vjerojatno proširiti i izvan svijeta poznatih kako bi, na primjer, predstavljali odlično sredstvo za osvetu, usmjereno osobito protiv žena.

Radi li se samo o videosnimkama?

Deepfake tehnologija može stvoriti i veoma uvjerljive fotografije, kao i zvukove. Veoma vjerne imitacije glasova javnih ličnosti uveliko se koriste. Prošlog ožujka, šef britanskog ogranka jedne njemačke energetske kompanije uplatio je gotovo 200.000 funti na račun u Mađarskoj, nakon što mu je to telefonom naredila osoba koja je nedvosmisleno zvučala kao generalni direktor ove kompanije. U kompaniji tvrde da je u pitanju bio deepfake glas, ali dokazi još uvijek nisu jasni. Slične zloupotrebe događale su se i posredstvom lažnih glasovnih poruka preko WhatsAppa.

Kako se izrađuju?

Potrebno je nekoliko koraka kako bi se napravila lažna videosnimka. Postupak se svodi na enkodiranje velikog broja fotografija lica osobe koja se nalazi na originalnoj videosnimci, i lica osobe čije lice je potrebno postaviti na snimku. Enkoder pronalazi sličnosti i razlike između lica dviju osoba i kompresira ih. Potom na scenu stupa dekoder koji rekonstruira kompresirane slike, kadar po kadar, kako bi se napravio vjerodostojni i uvjerljivi falsifikat.

Druga metoda je korištenje GAN mreže (Generative adversarial network) koja postavlja dva AI (umjetna inteligencija) algoritma da rade jedan protiv drugog. Prvi algoritam – generator, stvara šum u formi fotografije. Ovakva sintetička fotografija se dodaje nizu stvarnih slika – nekih poznatih ličnosti, recimo, koje se dodaju u drugi AI algoritam – diskriminator. U početku, sintetičke fotografije neće mnogo podsjećati na lica, ali ako se ovaj postupak ponovi više puta, generator će početi proizvoditi potpuno realistična lica.

Tko izrađuje deepfakeove?

Svi – od akademskih i industrijskih istraživača, do amatera entuzijasta i studija za vizualne efekte, kao i producenata pornografskog sadržaja. Čak se i vlade bave ovom tehnologijom, kao dio svojih mrežnih strategija za diskreditiranje politički nepodobnih pojedinaca ili grupa.

Koliko je tehnički zahtjevno?

Teško je napraviti dobar deepfake sadržaj na standardnom, kućnom kompjuteru. Koriste se veoma moćni kompjuteri s jakim grafičkim procesorima. Potrebna je, također, stručnost, kao i iskustvo. Na raspolaganju je mnoštvo alata koji pomažu ljudima prilikom pravljenja deepfakeova, a mnoge tvrtke nude svoje usluge kako bi to učinile umjesto vas.

Kako prepoznati deepfake?

Prepoznavanje falsificiranih videosnimki postaje sve teže jer tehnologija napreduje. Tijekom 2018. godine američki istraživači su otkrili da lica rađena u deepfake tehnologiji ne trepću prirodno. To nije iznenađujuće, jer fotografije u ogromnom broju slučajeva prikazuju ljude otvorenih očiju, pa algoritmi nikada ne nauče treptati. Međutim, i ovaj nedostatak se otklanja, kao i uvijek – svaka slabost ili nedostatak brzo se ispravi.

Nešto manje kvalitetne deepfake sadržaje lakše je uočiti. Sinkronizacija usana može biti loša. Može doći i do neprirodnog prelamanja slike po rubovima lica. Fini detalji, kao što su kosa, posebno su teški za kloniranje. Loše kompresiran nakit, kao i zubi, odnosno neprirodno osvjetljenje također su putokazi prema falsifikatima.

Vlade, sveučilišta i tehnološke tvrtke financiraju istraživanja kako bi prepoznali deepfake sadržaj. Prošlog mjeseca počelo je prvo natjecanje u otkrivanju deepfakeova, koje su podržali Facebook, Microsoft i Amazon. Uključuje istraživačke timove iz cijelog svijeta koji se natječu za nadmoć u otkrivanju lažnog sadržaja.

Postoji li rješenje?

Deepfake može predstavljati problem u zaista širokom spektru ljudskog djelovanja. Ali, ironično, upravo je umjetna inteligencija i rješenje ovog problema. AI već pomaže u pronalaženju lažnih videosnimki, premda i dalje mnogi postojeći sustavi za detekciju imaju određene slabosti: djeluju dobro kada su poznate ličnosti u pitanju, jer mogu koristiti javno dostupni materijal, ali se slabije pokazuju kod običnih ljudi. Tvrtke ubrzano rade na sustavima detekcije koji će imati zadatak odmah alarmirati i označiti videosnimku kao lažnu, čim ju prepoznaju.

Index