Tehnologija Deepfake može biti zabavna za igranje, ali njezin potencijal štete je značajan. Evo što budućnost deepfakeova može donijeti.
Nekad je bilo lako uočiti znakove duboke lažne slike, ali generativna umjetna inteligencija nas tjera da preispitujemo gotovo sve što sada vidimo i čujemo. Sa svakim novim modelom umjetne inteligencije koji se objavi, znakovi lažne slike su sve manji, a dodatno zabune, sada možete stvarati deepfake videozapise, glasovne klonove svojih voljenih i izmišljati lažne članke u samo sekundi.
Kako biste izbjegli prevaru AI deepfake-ova, vrijedi znati kakve opasnosti predstavljaju.
Evolucija Deepfakea
Deepfake prikazuje osobu koja radi nešto što se nikada nije dogodilo u stvarnom životu. Potpuno je lažno. Smijemo se deepfakeovima kada se dijele na internetu kao meme ili šala, ali vrlo malo ljudi smatra smiješnim kada se koriste da nas dovedu u zabludu.
U prošlosti su se deepfakeovi stvarali snimanjem postojeće fotografije i njezinim mijenjanjem u softveru za uređivanje slika poput Photoshopa. Ali ono što izdvaja AI deepfake je to što se može generirati od nule pomoću algoritama dubokog učenja.
The Merriam-Webster rječnik definira deepfake kao:
Slika ili snimka koja je uvjerljivo izmijenjena i manipulirana kako bi se netko krivo predstavio kao da radi ili govori nešto što zapravo nije učinjeno ili rečeno.
Ali s napretkom u AI tehnologiji, ova definicija počinje izgledati zastarjelo. Uz korištenje AI alata, deepfakeovi sada uključuju slike, tekst, video zapise i kloniranje glasa. Ponekad se sva četiri načina generiranja umjetne inteligencije koriste odjednom.
Budući da je to automatizirani proces koji je nevjerojatno brz i jeftin za korištenje, savršen je alat za izbacivanje deepfake stopom kakvu nikad prije nismo vidjeli—sve bez potrebe da znate ijednu stvar o tome kako urediti fotografije, videozapise ili audio.
Velike opasnosti AI Deepfakea
Domaćin od AI video generatori već postoje, pored mnogih AI generatori glasa. Ubacite a veliki jezični model poput GPT-4 i imate recept za stvaranje najvjerojatnijih deepfakeova koje smo do sada vidjeli u modernoj povijesti.
Biti svjestan različitih vrsta AI deepfakeova i načina na koji bi se mogli upotrijebiti da vas prevare jedan je od načina da izbjegnete da budete zavedeni. Evo samo nekoliko ozbiljnih primjera kako tehnologija AI deepfake predstavlja stvarnu prijetnju.
1. AI krađa identiteta
Možda ste ih vidjeli. Među prvim istinski virusnim AI deepfakeovima koji su se proširili svijetom bile su slike uhićenja Donalda Trumpa i jedna slika pape Franje u bijeloj pufer jakni.
Iako se čini kao nevino ponovno zamišljanje onoga što bi poznati vjerski lik mogao odjenuti na prohladan dan u Rimu; druga slika, koja prikazuje političku osobu u ozbiljnoj situaciji sa zakonom, ima daleko veće posljedice ako se uzme kao stvarna.
Do sada su ljudi uglavnom ciljali na slavne osobe, političke ličnosti i druge poznate pojedince kada su stvarali AI deepfakeove. Djelomično je to zato što poznati pojedinci imaju mnoštvo svojih fotografija na internetu, što je vjerojatno pomoglo u obuci modela.
U slučaju AI generatora slika kao što je Midjourney—koji se koristi iu deepfakeu Trumpa i Pape—korisnik jednostavno treba unijeti tekst koji opisuje ono što želi vidjeti. Ključne riječi mogu se koristiti za određivanje umjetničkog stila, kao što je fotografija ili fotorealizam, a rezultati se mogu fino podesiti povećanjem razlučivosti.
Možete jednako lako naučite koristiti Midjourney i isprobajte ovo sami, ali iz očitih moralnih i pravnih razloga trebali biste izbjegavati javno objavljivanje ovih slika.
Nažalost, ni to što ste prosječno, nepoznato ljudsko biće neće jamčiti da ste sigurni od AI deepfakeova.
Problem leži u ključnoj značajci koju nude AI generatori slika: mogućnost učitavanja vlastite slike i manipuliranja njome pomoću AI. I alat poput Preslikavanje u DALL-E 2 može proširiti postojeću sliku izvan njezinih granica unosom tekstualnog upita i opisivanjem što još želite generirati.
Kad bi netko drugi to učinio s vašim fotografijama, opasnosti bi mogle biti znatno veće od deepfakea Pape u bijeloj jakni – mogu ga koristiti bilo gdje, pretvarajući se da ste vi. Dok većina ljudi općenito koristi umjetnu inteligenciju s dobrim namjerama, vrlo je malo ograničenja koja sprječavaju ljude da je koriste za nanošenje štete, osobito u slučajevima krađe identiteta.
2. Prijevare Deepfake Voice Clone
Uz pomoć umjetne inteligencije, deepfakeovi su prešli granicu za koju većina nas nije bila spremna: lažni glasovni klonovi. Sa samo malom količinom izvornog zvuka - možda iz TikTok videa koji ste jednom objavili ili YouTube videa u kojem se pojavljujete - AI model može replicirati vaš jedinstveni glas.
Nevjerojatno je i zastrašujuće zamisliti da primite telefonski poziv koji zvuči kao da vas zove član obitelji, prijatelj ili kolega. Deepfake glasovni klonovi su dovoljno ozbiljna briga da Savezna komisija za trgovinu (FTC) je izdao upozorenje na to.
Ne vjerujte glasu. Nazovite osobu koja vas je navodno kontaktirala i provjerite priču. Koristite telefonski broj za koji znate da je njihov. Ako ne možete doći do voljene osobe, pokušajte s njom stupiti u kontakt preko drugog člana obitelji ili njegovih prijatelja.
Washington Post je objavio slučaj para u 70-ima koji je primio telefonski poziv od nekoga tko je zvučao baš kao njihov unuk. Bio je u zatvoru i hitno mu je trebao novac za jamčevinu. Pošto nisu imali drugog razloga sumnjati s kim razgovaraju, otišli su naprijed i predali novac prevarantu.
Nisu samo starije generacije u opasnosti, Izvijestio je Guardian još jedan primjer upravitelja banke koji je odobrio transakciju od 35 milijuna dolara nakon niza "duboko lažiranih poziva" od nekoga za koga su vjerovali da je direktor banke.
3. Masovno proizvedene lažne vijesti
Veliki jezični modeli, npr ChatGPT su vrlo, vrlo dobri u stvaranju teksta koji zvuči poput čovjeka, a trenutno nemamo učinkovite alate za uočavanje razlike. U pogrešnim rukama, lažne vijesti i teorije zavjere bit će jeftine za proizvodnju i trebat će više vremena za razotkrivanje.
Širenje dezinformacija naravno nije ništa novo, već istraživački rad objavljeno na arXiv u siječnju 2023. objašnjava da problem leži u tome koliko je lako povećati izlaz pomoću AI alata. Oni to nazivaju "kampanjama utjecaja generiranim umjetnom inteligencijom", za koje kažu da bi ih političari mogli, na primjer, koristiti za outsourcing svojih političkih kampanja.
Kombiniranjem više od jednog izvora generiranog umjetnom inteligencijom stvara se deepfake visoke razine. Na primjer, AI model može generirati dobro napisanu i uvjerljivu vijest koja ide uz lažnu sliku uhićenja Donalda Trumpa. To joj daje veći legitimitet nego da je slika podijeljena sama za sebe.
Lažne vijesti također nisu ograničene samo na slike i tekstove, razvoj u generiranju videosadržaja pomoću umjetne inteligencije znači da vidimo sve više lažnih video zapisa. Evo jednog od Roberta Downeya Jr. nakalemljenog na video Elona Muska, koji je objavio YouTube kanal Deepfakery.
Stvaranje deepfakea može biti jednostavno poput preuzimanja aplikacije. Možete koristiti aplikaciju poput TokkingHeads za pretvaranje fotografija u animirane avatare, koji vam omogućuje učitavanje vlastite slike i zvuka kako bi se činilo da osoba govori.
Uglavnom je zabavno i zabavno, ali postoji i potencijal za nevolje. Pokazuje nam koliko je lako upotrijebiti bilo čiju sliku kako bi izgledalo kao da je ta osoba izgovorila riječi koje nikada nije izgovorila.
Nemojte se dati prevariti AI Deepfakeom
Deepfake se može brzo implementirati uz vrlo male troškove i uz nisku razinu stručnosti ili potrebne računalne snage. Mogu poprimiti oblik generirane slike, glasovnog klona ili kombinacije slika, zvuka i teksta generiranih umjetnom inteligencijom.
Nekad je bilo puno teže i napornije proizvesti deepfake, ali sada, s mnoštvom AI aplikacija, gotovo svatko ima pristup alatima koji se koriste za stvaranje deepfakeova. Kako tehnologija AI deepfake postaje sve naprednija, vrijedi pažljivo pratiti opasnosti koje predstavlja.