Umjetna inteligencija (AI) ima potencijal promijeniti samu prirodu našeg društva. A ako su AI alati koje trenutno imamo na raspolaganju ikakvi pokazatelji onoga što dolazi, imamo se čemu radovati.
Imamo i puno toga na što moramo biti oprezni. Naime, kibernetički kriminalci i drugi akteri prijetnji stavljaju umjetnu inteligenciju u oružje kao oružje. Ovo nije teoretski problem, a čak ni AI generatori slika nisu imuni na zlouporabu.
Što su AI generatori slika? Kako oni rade?
Ako ste ikada koristili AI generator slike, imate prilično dobru ideju o čemu se radi. Čak i ako ga nikada niste koristili, najvjerojatnije ste na društvenim mrežama i drugdje naišli na slike koje je generirala umjetna inteligencija. Softver koji je danas popularan radi na vrlo jednostavnom principu: korisnik upiše tekst, a AI na temelju tog teksta generira sliku.
Ono što se događa ispod haube puno je složenije. AI je postao puno bolji posljednjih godina, i to većina
generatori teksta u sliku danas su takozvani difuzijski modeli. To znači da su dugo "trenirani" na ogromnom broju teksta i slika, što njihove kreacije čini tako dojmljivima i zadivljujuće realističnima.Ono što ove AI alate čini još impresivnijima je činjenica da oni ne samo da modificiraju postojeće slike ili kombiniraju tisuće slika u jednu, već također stvaraju nove, originalne slike od nule. Što više ljudi koristi ove generatore teksta u sliku, dobivaju više informacija i njihove kreacije postaju bolje.
Neki od najpoznatijih AI generatori slika su Dream by WOMBO, DALL-E, Stable Diffusion, Midjourney, DeepAI, Fotor i Craiyon. Novi se pojavljuju slijeva i zdesna, a tehnološki divovi — uključujući Google — objavljuju svoje, tako da možemo samo nagađati što će budućnost donijeti.
4 načina na koje akteri prijetnji koriste AI generatore slika oružjem
Kao i gotovo sva tehnologija, AI generatore slika mogu zloupotrijebiti zlonamjerni akteri. Zapravo, već se koriste u razne podle svrhe. Ali koju točno vrstu prijevara i kibernetičkih napada kriminalac može izvesti uz pomoć AI generatora slike?
1. Socijalni inženjering
Jedna očita stvar koju akteri prijetnji mogu učiniti s AI generatorima slika je baviti se društvenim inženjeringom; na primjer, stvoriti lažne profile na društvenim mrežama. Neki od tih programa mogu stvoriti nevjerojatno realistične slike koje izgledaju baš kao prave fotografije stvarnih ljudi, a prevarant bi te lažne profile na društvenim mrežama mogao iskoristiti za lov na mačke.
Za razliku od fotografija stvarnih ljudi, one koje je generirala umjetna inteligencija ne mogu se otkriti obrnutim pretraživanjem slika, a kibernetički kriminalac ne mora raditi s ograničen broj fotografija za prevaru svoje mete—upotrebom umjetne inteligencije mogu ih generirati koliko god žele, gradeći uvjerljiv online identitet od ogrepsti.
Ali postoje primjeri iz stvarnog života aktera prijetnji koji koriste AI generatore slika kako bi prevarili ljude. U travnju 2022. TechTalks bloger Ben Dickinson primio je e-poštu od odvjetničke tvrtke u kojoj se tvrdi da je upotrijebio sliku bez dopuštenja. Odvjetnici su e-poštom poslali DMCA obavijest o kršenju autorskih prava, govoreći Dickinsonu da se mora povezati s njihovim klijentom ili ukloniti sliku.
Dickinson je guglao odvjetničku tvrtku i pronašao službenu web stranicu. Sve je izgledalo potpuno legitimno; stranica je čak imala fotografije 18 odvjetnika, zajedno s njihovim biografijama i vjerodajnicama. Ali ništa od toga nije bilo stvarno. Sve fotografije generirala je umjetna inteligencija, a poslane su obavijesti o navodnom kršenju autorskih prava od strane nekoga tko želi iznuditi povratne veze od blogera koji ništa ne sumnjaju, kao dio neetičkog, crnog šešir SEO (optimizacija za tražilice) strategija.
2. Dobrotvorne prijevare
Kada su razorni potresi pogodili Tursku i Siriju u veljači 2023. godine, milijuni ljudi diljem svijeta izrazili su solidarnost sa žrtvama donirajući odjeću, hranu i novac.
Prema izvješću iz BBC, prevaranti su to iskoristili, koristeći AI za stvaranje realističnih slika i prikupljanje donacija. Jedan je prevarant pokazao slike ruševina koje je generirala umjetna inteligencija na TikTok Liveu, tražeći od svojih gledatelja donacije. Drugi je objavio sliku koju je generirala umjetna inteligencija grčkog vatrogasca kako spašava ozlijeđeno dijete iz ruševina i zamolio svoje pratitelje za donacije u Bitcoinima.
Može se samo zamisliti kakve će dobrotvorne prijevare kriminalci izvoditi uz pomoć umjetne inteligencije u budućnosti, ali sigurno je pretpostaviti da će samo postati bolji u zlouporabi ovog softvera.
3. Deepfakes i dezinformacije
Vlade, aktivističke skupine i think tankovi već dugo upozoravaju na opasnosti od deepfakeova. AI generatori slika dodaju još jednu komponentu ovom problemu, s obzirom na to koliko su njihove kreacije realistične. Zapravo, u Ujedinjenom Kraljevstvu postoji čak i humoristična serija Deep Fake Neighbor Wars koja pronalazi humor u nevjerojatnim parovima slavnih. Što bi spriječilo dezinformatora da stvori lažnu sliku i promovira je na društvenim mrežama uz pomoć botova?
To može imati posljedice u stvarnom životu, kao što se zamalo dogodilo u ožujku 2022., kada je internetom kružio lažni video koji prikazuje ukrajinskog predsjednika Volodimira Zelenskog kako govori Ukrajincima da se predaju, po NPR. Ali to je samo jedan primjer, jer su mogućnosti gotovo beskrajne, a postoji bezbroj načina akter prijetnje mogao bi naštetiti nečijem ugledu, promovirati lažnu priču ili širiti lažne vijesti uz pomoć AI.
4. Prijevara s oglasima
TrendMicro Istraživači su 2022. godine otkrili da su prevaranti koristili sadržaj generiran umjetnom inteligencijom za stvaranje obmanjujućih oglasa i promicanje sumnjivih proizvoda. Napravili su slike koje su sugerirale popularnim slavnim osobama da koriste određene proizvode i pokrenule oglasne kampanje na temelju tih slika.
Na primjer, jedan oglas za "financijsku priliku za savjetovanje" predstavljao je milijardera Elona Muska, osnivača i izvršnog direktora Tesle. Naravno, Musk nikada nije podržao predmetni proizvod, ali prikazana snimka koju je generirala umjetna inteligencija učinila je da se čini tako, vjerojatno mameći gledatelje koji ništa ne sumnjaju da kliknu na oglase.
AI i kibernetička sigurnost: složeno pitanje s kojim se moramo pozabaviti
Ubuduće će vladini regulatori i stručnjaci za kibernetičku sigurnost vjerojatno morati surađivati kako bi se uhvatili u koštac s rastućom prijetnjom kibernetičkog kriminala koji pokreće AI. Ali kako možemo regulirati AI i zaštititi obične ljude, a da ne gušimo inovacije i ograničavamo digitalne slobode? To će pitanje biti važno godinama koje dolaze.
Dok ne dobijete odgovor, učinite što možete da se zaštitite: pažljivo provjerite sve informacije koje vidite na internetu, izbjegavajte ih sumnjivim web stranicama, koristite siguran softver, ažurirajte svoje uređaje i naučite koristiti umjetnu inteligenciju za prednost.