Umjetna inteligencija može zvučati kao predsjednik. Ili može zvučati kao ti ili ja. Dakle, kakav rizik za kibernetičku sigurnost predstavlja softver za kloniranje glasa pomoću umjetne inteligencije?
Umjetna inteligencija (AI) moćna je tehnologija koja obećava transformaciju naših života. Nikada to nije bilo tako jasno kao danas, kada su moćni alati dostupni svakome s internetskom vezom.
To uključuje AI glasovne generatore, napredni softver sposoban oponašati ljudski govor tako kompetentno da je nemoguće razlikovati to dvoje. Što to znači za kibernetičku sigurnost?
Kako rade AI glasovni generatori?
Sinteza govora, proces umjetne proizvodnje ljudskog govora, postoji desetljećima. Kao i svaka tehnologija, tijekom godina je doživjela duboke promjene.
Oni koji su koristili Windows 2000 i XP možda se sjećaju Microsoft Sama, zadanog muškog glasa za pretvaranje teksta u govor operativnog sustava. Microsoft Sam obavio je posao, ali zvukovi koje je proizvodio bili su robotski, kruti i neprirodni. Alati koje danas imamo na raspolaganju znatno su napredniji, ponajviše zahvaljujući dubokom učenju.
Duboko učenje je a metoda strojnog učenja koja se temelji na umjetnim neuronskim mrežama. Zbog ovih neuronskih mreža, moderna umjetna inteligencija sposobna je obraditi podatke gotovo kao što neuroni u ljudskom mozgu tumače informacije. Drugim riječima, što AI postaje sličniji čovjeku, to je bolji u oponašanju ljudskog ponašanja.
To je, ukratko, način na koji rade moderni AI generatori glasa. Što su više govornih podataka izloženi, to postaju vještiji u oponašanju ljudskog govora. Zbog relativno nedavnog napretka u ovoj tehnologiji, vrhunski softver za pretvaranje teksta u govor može u biti replicirati zvukove koje šalje.
Kako akteri prijetnji koriste AI glasovne generatore
Nije iznenađujuće da akteri prijetnji zlorabe ovu tehnologiju. I to ne samo kibernetički kriminalci u tipičnom smislu te riječi, već i agenti dezinformacija, prevaranti, trgovci crnim šeširima i trolovi.
U trenutku kada je ElevenLabs objavio beta verziju svog softvera za pretvaranje teksta u govor u siječnju 2023., krajnje desničarski trolovi na oglasnoj ploči 4chan počeli su je zlorabiti. Koristeći naprednu umjetnu inteligenciju, reproducirali su glasove pojedinaca poput Davida Attenborougha i Emme Watson, čineći da se čini kao da slavne osobe iznose odvratne tirade pune mržnje.
Kao Vice izvijestili su u to vrijeme, ElevenLabs je priznao da ljudi zlorabe njegov softver, posebice kloniranje glasa. Ova značajka omogućuje svakome da "klonira" glas druge osobe; sve što trebate učiniti je učitati jednominutnu snimku i pustiti AI da učini ostalo. Vjerojatno, što je snimka dulja, to je izlaz bolji.
U ožujku 2023. viralni TikTok video privukao je pozornost The New York Times. U videu, poznati podcaster Joe Rogan i dr. Andrew Huberman, čest gost na The Joe Rogan Experience, čuli su se kako raspravljaju o kofeinskom napitku za "povećanje libida". U videu se činilo da i Rogan i Huberman nedvosmisleno podržavaju proizvod. U stvarnosti su njihovi glasovi klonirani pomoću umjetne inteligencije.
Otprilike u isto vrijeme, banka Silicijske doline sa sjedištem u Santa Clari u Kaliforniji propala je zbog pogrešaka u upravljanju rizikom i drugih problema, a preuzela ju je državna vlada. Bio je to najveći propast banaka u Sjedinjenim Državama od financijske krize 2008., pa je uzburkao globalna tržišta.
Ono što je doprinijelo panici je lažna audio snimka američkog predsjednika Joea Bidena. Na snimci se očito čuje kako Biden upozorava na neizbježni "kolaps" i upućuje svojoj administraciji da "iskoristi svu snagu medija da umiri javnost". Provjerivači činjenica poput PolitiFact brzo su razotkrili isječak, ali vjerojatno su ga milijuni čuli do tog trenutka.
Ako se glasovni generatori umjetne inteligencije mogu koristiti za oponašanje slavnih osoba, mogu se koristiti i za oponašanje običnih ljudi, a to je upravo ono što kibernetički kriminalci rade. Prema ZDNet, tisuće Amerikanaca nasjedaju na prijevare poznate kao vishing ili glasovni phishing svake godine. Jedan stariji par dospio je na nacionalne naslovnice 2023. kada su primili telefonski poziv od svog "unuka", koji je tvrdio da je u zatvoru i tražio novac.
Ako ste ikada prenijeli YouTube videozapis (ili se pojavili u jednom), sudjelovali u velikom grupnom pozivu s ljudima s kojima niste znate ili prenijeli vaš glas na internet u nekom svojstvu, vi ili vaši voljeni teoretski biste mogli biti u opasnosti. Što bi spriječilo prevaranta da učita vaš glas u AI generator, klonira ga i kontaktira vašu obitelj?
AI Generatori glasa remete kibernetičku sigurnost
Nije potreban stručnjak za kibernetičku sigurnost da prepozna koliko AI može biti opasna u krivim rukama. I dok je istina da se isto može reći za svu tehnologiju, AI je jedinstvena prijetnja iz nekoliko razloga.
Kao prvo, relativno je nov, što znači da zapravo ne znamo što očekivati od njega. Moderni AI alati omogućuju kibernetičkim kriminalcima da skaliraju i automatiziraju svoje operacije na način bez presedana, dok iskorištavaju relativno neznanje javnosti što se tiče ove stvari. Također, generativna umjetna inteligencija omogućuje akterima prijetnji s malo znanja i vještina da stvoriti zlonamjerni kod, izrađivati prevarantske stranice, širiti neželjenu poštu, pisati phishing e-poruke, stvarati realne slike, i proizvode beskrajne sate lažnog audio i video sadržaja.
Ono što je najvažnije, ovo funkcionira u oba smjera: AI se također koristi za zaštitu sustava, a vjerojatno će tako biti i u narednim desetljećima. Ne bi bilo nerazumno pretpostaviti da je ono što nas čeka neka vrsta AI utrke u naoružanju između kibernetičkih kriminalaca i industriju kibernetičke sigurnosti, budući da su obrambeni i ofenzivni kapaciteti ovih alata inherentni jednak.
Za prosječnu osobu, pojava široko rasprostranjene generativne umjetne inteligencije zahtijeva radikalnost preispitivanje sigurnosnih praksi. Koliko god AI mogla biti uzbudljiva i korisna, ona može u najmanju ruku zamagliti granicu između onoga što je stvarno i onoga što nije, au najgorem slučaju pogoršava postojeće sigurnosne probleme i stvara novi prostor za manevriranje aktera prijetnje u.
Generatori glasa pokazuju destruktivni potencijal umjetne inteligencije
Čim se ChatGPT pojavio na tržištu, razgovori o regulaciji umjetne inteligencije su se pojačali. Svaki pokušaj ograničavanja ove tehnologije vjerojatno bi zahtijevao međunarodnu suradnju do stupnja kakvog nismo vidjeli desetljećima, što ga čini malo vjerojatnim.
Duh je izašao iz boce i najbolje što možemo učiniti je naviknuti se na njega. To i nadamo se da će se sektor kibernetičke sigurnosti tome prilagoditi.