Svatko misli da može uočiti deepfake video, ali brzo poboljšanje tehnologije, uključujući AI alate, čini uočavanje lažnog videa težim nego ikad.
Ključni zahvati
- Deepfakes predstavljaju značajnu prijetnju društvu, uključujući širenje dezinformacija, narušavanje ugleda lažnim predstavljanjem i poticanje sukoba za nacionalnu sigurnost.
- Iako AI tehnologija nudi alate za otkrivanje deepfakea, oni nisu savršeni, a ljudska diskrecija ostaje ključna u prepoznavanju deepfakeova.
- Ljudi i alati za otkrivanje umjetne inteligencije imaju različite snage i slabosti u prepoznavanju deepfakeova, i kombiniranje njihovih sposobnosti može poboljšati stope uspjeha u otkrivanju i ublažavanju opasnosti dubokog lažiranja tehnologija.
Deepfakeovi prijete svakom aspektu društva. Naša sposobnost da identificiramo lažni sadržaj ključna je za poništavanje dezinformacija, ali kako se tehnologija umjetne inteligencije poboljšava, kome možemo vjerovati da će otkriti deepfakeove: čovjeku ili stroju?
Opasnosti Deepfakea
Kako AI tehnologija napreduje, opasnosti deepfakeova predstavljaju sve veću prijetnju svima nama. Evo kratkog sažetka nekih od najhitnijih problema koje nameće deepfake:
- Dezinformacija: Deepfaked video i glasovne snimke mogu širiti dezinformacije, kao što su lažne vijesti.
- Lažno predstavljanje: Oponašanjem pojedinaca, deepfakeovi mogu naštetiti ugledu ljudi ili prevariti svakoga tko ih poznaje.
- Nacionalna sigurnost: Očigledni scenarij sudnjeg dana s deepfakeovima je izmišljena snimka ili zvuk globalnog vođe koji potiče sukob.
- Građanski nemiri: Obmanjujuće snimke i audio zapise također mogu koristiti stranke za izazivanje bijesa i građanskih nemira među određenim skupinama.
- Kibernetička sigurnost: Cyberkriminalci već koriste alate za kloniranje glasa pomoću umjetne inteligencije kako bi ciljali pojedince s uvjerljivim porukama od ljudi koje poznaju.
- Privatnost i pristanak: Zlonamjerno korištenje deepfakea pretvara se u pojedince bez njihovog pristanka.
- Povjerenje i povjerenje: Ako ne možete razlikovati istinu od prijevare, točne informacije postaju jednako nepouzdane.
Deepfake će samo postati uvjerljiviji, stoga su nam potrebni robusni alati i procesi za njihovo otkrivanje. AI pruža jedan takav alat u obliku modela za otkrivanje deepfakea. Međutim, poput algoritmi dizajnirani za prepoznavanje pisma koje je generirala umjetna inteligencija, alati za otkrivanje deepfakea nisu savršeni.
U ovom trenutku, ljudska diskrecija je jedini drugi alat na koji se možemo osloniti. Dakle, jesmo li bolji od algoritama u prepoznavanju deepfakeova?
Mogu li algoritmi detektirati Deepfake bolje od ljudi?
Deepfakes su dovoljno ozbiljna prijetnja da tehnološki divovi i istraživačke skupine posvećuju ogromne resurse istraživanju i razvoju. Godine 2019., tvrtke poput Mete, Microsofta i Amazona ponudile su 1.000.000 dolara nagrada tijekom Deepfake Detection Challenge za najtočniji model detekcije.
Model s najboljom izvedbom bio je 82,56% točan u odnosu na skup podataka javno dostupnih videozapisa. Međutim, kada su isti modeli testirani na "skupu podataka crne kutije" od 10.000 neviđenih videozapisa, model s najboljom izvedbom bio je samo 65,18% točan.
Također imamo mnoštvo studija koje analiziraju izvedbu AI alata za otkrivanje deepfake protiv ljudskih bića. Naravno, rezultati se razlikuju od jedne studije do druge, ali općenito, ljudi su ili jednaki ili bolji od stope uspješnosti alata za detekciju dubinskih krivotvorina.
Jedna studija iz 2021. objavljena na PNAS otkrili su da su "obični ljudski promatrači" postigli nešto veću stopu točnosti od vodećih alata za otkrivanje dubokih lažnih lažnih prikaza. Međutim, studija je također otkrila da su ljudski sudionici i AI modeli bili osjetljivi na različite vrste pogrešaka.
Zanimljivo, istraživanje koje je proveo Sveučilište u Sydneyu je otkrio da je ljudski mozak, nesvjesno, učinkovitiji u uočavanju deepfakeova nego naši svjesni napori.
Otkrivanje vizualnih tragova u Deepfakeovima
Znanost o otkrivanju lažnih lažnih sadržaja je složena, a potrebna analiza varira, ovisno o prirodi snimke. Na primjer, zloglasni deepfake video sjevernokorejskog vođe Kim Jong-una iz 2020. u osnovi je video govorne glave. U ovom slučaju, najučinkovitija metoda otkrivanja deepfakea mogla bi biti analiza visema (pokreti usta) i fonema (fonetski zvukovi) na nedosljednosti.
Ljudski stručnjaci, povremeni gledatelji i algoritmi mogu izvesti ovu vrstu analize, čak i ako rezultati variraju. The MIT definira osam pitanja za pomoć identificirati deepfake videozapise:
- Obratite pažnju na lice. Vrhunske DeepFake manipulacije gotovo su uvijek transformacije lica.
- Obratite pozornost na obraze i čelo. Čini li se koža previše glatkom ili previše naboranom? Je li starost kože slična starosti kose i očiju? DeepFakes mogu biti neskladni u nekim dimenzijama.
- Obratite pozornost na oči i obrve. Pojavljuju li se sjene na mjestima koja biste očekivali? DeepFakes možda neće u potpunosti prikazati prirodnu fiziku scene.
- Obratite pozornost na naočale. Ima li odsjaja? Ima li previše odsjaja? Mijenja li se kut odsjaja kada se osoba pomiče? Još jednom, DeepFakes možda neće u potpunosti predstaviti prirodnu fiziku rasvjete.
- Obratite pozornost na dlake na licu ili nedostatak istih. Izgleda li ova dlaka na licu prava? DeepFakes može dodati ili ukloniti brkove, zaliske ili bradu. Međutim, DeepFakes možda neće uspjeti učiniti transformaciju dlačica na licu potpuno prirodnom.
- Obratite pozornost na madeže na licu. Izgleda li madež pravi?
- Obratite pozornost na treptanje. Trepće li osoba dovoljno ili previše?
- Obratite pažnju na pokrete usana. Neki deepfakeovi temelje se na sinkronizaciji usana. Izgledaju li pokreti usana prirodno?
Najnoviji AI alati za otkrivanje deepfake mogu analizirati iste faktore, opet, s različitim stupnjevima uspjeha. Znanstvenici koji se bave podacima također stalno razvijaju nove metode, poput otkrivanja prirodnog protoka krvi u licima govornika na ekranu. Novi pristupi i poboljšanja postojećih mogli bi rezultirati time da AI alati za otkrivanje deepfakea u budućnosti dosljedno budu bolji od ljudi.
Otkrivanje audio tragova u Deepfakeovima
Otkrivanje deepfake zvuka potpuno je drugačiji izazov. Bez vizualnih znakova videa i mogućnosti prepoznavanja audiovizualnih nedosljednosti, deepfake otkrivanje se uvelike oslanja na analizu zvuka (druge metode poput verifikacije metapodataka također mogu pomoći, u nekim slučajevima slučajevima).
Studija koju je objavio University College London 2023. otkriveno je da ljudi mogu detektirati lažni duboki govor u 73% slučajeva (engleski i mandarinski). Kao i kod deepfake videozapisa, ljudski slušatelji često intuitivno otkrivaju neprirodne govorne obrasce u govoru generiranom umjetnom inteligencijom, čak i ako ne mogu odrediti što se čini pogrešnim.
Uobičajeni znakovi uključuju:
- Muljajući
- Nedostatak izražaja
- Pozadinski šum ili smetnje
- Vokalne ili govorne nedosljednosti
- Nedostatak "punoće" u glasovima
- Isporuka s previše scenarija
- Nedostatak nesavršenosti (pogrešni startovi, ispravci, čišćenje grla, itd.)
Još jednom, algoritmi također mogu analizirati govor za iste deepfake signale, ali nove metode čine alate učinkovitijima. Istraživanje po USENIX identificirali obrasce u rekonstrukciji vokalnog trakta umjetnom inteligencijom koji ne uspijevaju oponašati prirodni govor. Sažeto je da AI generatori glasa proizvode zvuk koji odgovara uskim glasovnim traktovima (otprilike veličine slamke) bez prirodnih pokreta ljudskog govora.
Ranija istraživanja iz Institut Horst Görtz analizirao originalni i deepfake audio na engleskom i japanskom, otkrivajući suptilne razlike u višim frekvencijama izvornog govora i deepfakea.
I vokalni trakt i visokofrekventne nedosljednosti vidljivi su ljudskim slušateljima i modelima AI detekcije. U slučaju visokofrekventnih razlika, AI modeli bi teoretski mogli postati sve točniji - iako se isto može reći i za AI deepfake.
I ljudi i algoritmi su prevareni Deepfakeovima, ali na različite načine
Studije sugeriraju da su ljudi i najnoviji alati za otkrivanje umjetne inteligencije na sličan način sposobni identificirati deepfakeove. Stope uspješnosti mogu varirati između 50% i 90+%, ovisno o parametrima testa.
Nadalje, ljudi i strojevi također su prevareni deepfakeovima u sličnoj mjeri. Međutim, najvažnije je da smo osjetljivi na različite načine i to bi mogla biti naša najveća prednost u borbi s opasnostima tehnologije dubokog lažiranja. Kombinacija snaga ljudi i alata za otkrivanje deepfakea ublažit će slabosti svakog od njih i poboljšati stope uspjeha.
Na primjer, MIT Istraživanje je pokazalo da su ljudi bolji u prepoznavanju deepfakeova svjetskih vođa i slavnih ljudi od AI modela. Također je otkrio da su se AI modeli borili sa snimkama s više ljudi, iako je sugerirao da bi to moglo biti rezultat algoritama koji se treniraju na snimkama s jednim zvučnicima.
Suprotno tome, ista je studija otkrila da modeli umjetne inteligencije nadmašuju ljude sa snimkama niske kvalitete (mutne, zrnate, tamne, itd.) koje bi se mogle namjerno koristiti za prevaru ljudskih gledatelja. Isto tako, nedavne metode otkrivanja umjetnom inteligencijom poput praćenja protoka krvi u određenim regijama lica uključuju analizu za koju ljudi nisu sposobni.
Kako se bude razvijalo više metoda, poboljšat će se samo sposobnost umjetne inteligencije da detektira znakove koje ne možemo, ali i njena sposobnost prevare. Veliko je pitanje hoće li tehnologija detekcije deepfakea nastaviti nadmašivati same deepfakeove.
Gledanje stvari drugačije u doba Deepfakea
AI alati za otkrivanje deepfake nastavit će se poboljšavati, kao i kvaliteta samog deepfake sadržaja. Ako AI-jeva sposobnost obmane nadmaši njegovu sposobnost otkrivanja (kao što je slučaj s tekstom generiranim umjetnom inteligencijom), ljudska diskrecija može biti jedini alat koji nam je preostao za borbu protiv deepfake-ova.
Svatko ima odgovornost naučiti znakove deepfakea i kako ih uočiti. Osim što se štitimo od prijevara i sigurnosnih prijetnji, sve o čemu razgovaramo i dijelimo na mreži podložno je dezinformacijama ako izgubimo razumijevanje stvarnosti.