Umjetna inteligencija može se koristiti za dobro ili za zlo. Evo samo nekoliko načina na koje trenutno pomaže hakerima i prevarantima.
Mnogi tehnološki entuzijasti uzbuđeni su zbog potencijala umjetne inteligencije, ali kibernetički kriminalci također traže da im ova tehnologija pomogne u njihovim pothvatima. AI je fascinantno područje, ali može nam dati i razloga za brigu. Dakle, na koji način umjetna inteligencija može pomoći kibernetičkim kriminalcima?
1. Pisanje zlonamjernog softvera
Umjetna inteligencija je napredna vrsta tehnologije, pa nekima možda nije iznenađujuće što se može koristiti za pisanje zlonamjernog softvera. Zlonamjerni softver je pojam za zlonamjerne programe koji se koriste (komplet riječi "zlonamjeran" i "softver") u hakiranju, a može se pojaviti u mnogim oblicima. Ali da biste koristili zlonamjerni softver, prvo ga morate napisati.
Nisu svi kibernetički kriminalci iskusni u kodiranju, dok drugi jednostavno ne žele trošiti vrijeme na pisanje novih programa. Ovdje AI može dobro doći.
Početkom 2023. uočeno je da ChatGPT se može koristiti za pisanje zlonamjernog softvera za nedopuštene napade. OpenAI-jev iznimno popularan ChatGPT pokreće AI infrastruktura. Ovaj chatbot može učiniti mnogo korisnih stvari, ali ga također iskorištavaju nedopušteni pojedinci.
U jednom konkretnom slučaju, korisnik je objavio na hakerskom forumu tvrdeći da jesu napisao zlonamjerni program temeljen na Pythonu koristeći ChatGPT.
ChatGPT bi mogao učinkovito automatizirati proces pisanja zlonamjernih programa. Ovo otvara vrata kibernetičkim kriminalcima početnicima koji nemaju puno tehničkog znanja.
ChatGPT (ili barem njegova najnovija verzija) može pisati samo osnovne, a ponekad i bugove, malware programe, umjesto sofisticiranog koda koji predstavlja ozbiljne prijetnje. Međutim, to ne znači da se AI ne može koristiti za pisanje zlonamjernog softvera. S obzirom na to da trenutni AI chatbot može stvoriti osnovne zlonamjerne programe, možda neće proći dugo prije nego što vidimo da još gnusniji zlonamjerni softver potječe iz AI sustava.
2. Razbijanje lozinki
Lozinke često predstavljaju jedini red podataka koji štiti naše račune i uređaje. Stoga, ne iznenađuje, mnogi kibernetički kriminalci pokušavaju probiti lozinke kako bi dobili pristup našim privatnim podacima.
Probijanje lozinki već je popularno u kibernetičkom kriminalu, a postoje razne tehnike koje zlonamjerni akter može upotrijebiti da otkrije zaporku cilja. Različite tehnike imaju različite stope uspjeha, ali umjetna inteligencija bi mogla znatno povećati šanse za probijanje lozinke.
Koncept AI krekera zaporki nipošto nije znanstvena fantastika. Zapravo, ZDNet izvijestio je da su stručnjaci za kibernetičku sigurnost otkrili da se više od polovice često korištenih lozinki može probiti za manje od minute. Članak na koji se poziva a Izvješće Heroja kućne sigurnosti, koja je izjavila da alat za krekiranje koji pokreće AI pod nazivom PassGAN može razbiti 51 posto uobičajenih lozinki za manje od minute, a 71 posto za manje od jednog dana.
Ove brojke pokazuju koliko AI probijanje lozinki može biti opasno. Uz mogućnost razbijanja većine običnih lozinki u manje od 24 sata, ne znamo što bi kibernetički kriminalac mogao učiniti korištenjem takvog alata.
3. Provođenje socijalnog inženjeringa
Taktika kibernetičkog kriminala poznat kao društveni inženjering odnosi horde žrtava svaki tjedan i veliki je problem u svakom dijelu svijeta. Ova metoda koristi manipulaciju kako bi se žrtve tjerale u kut da udovolje zahtjevima napadača, često čak i ne shvaćajući da su na meti
AI bi mogao pomoći u napadima društvenog inženjeringa formuliranjem sadržaja koji se koristi u zlonamjernim komunikacijama, kao što su phishing e-poruke i tekstovi. Čak i uz današnju razinu napretka umjetne inteligencije, ne bi bilo teško tražiti od chatbota da formulira uvjerljiv ili uvjerljiv scenarij, koji bi kibernetički kriminalac zatim mogao upotrijebiti protiv svojih žrtava. Ova prijetnja nije prošla nezapaženo i ljudi su već zabrinuti zbog opasnosti koje dolaze.
U tom smislu, AI bi također mogao pomoći u tome da zlonamjerna komunikacija izgleda profesionalnije i službenije ispravljajući pravopisne i gramatičke pogreške. Za takve se pogreške često kaže da su mogući znakovi zlonamjerne aktivnosti, pa bi kiberkriminalcima moglo pomoći ako mogu čišće i učinkovitije napisati svoj sadržaj društvenog inženjeringa.
4. Pronalaženje ranjivosti softvera
Da bi hakirali softverske programe, kibernetički kriminalci često moraju pronaći i iskoristiti sigurnosnu ranjivost. Ove ranjivosti često nastaju kao rezultat pogrešaka u kodu softvera. Ako se greška ne popravi ili pojedinac redovito ne ažurira svoje softverske programe (što često otklanja sigurnosne nedostatke), ranjivosti mogu predstavljati veliki rizik.
Cyberkriminalci to znaju i zato su u potrazi za nedostacima. Već postoje alati koji se mogu koristiti za pronalaženje ranjivosti, kao što je komplet za iskorištavanje. Ali korištenjem umjetne inteligencije zlonamjerni bi akter mogao istaknuti daleko više ranjivosti, od kojih bi se neke mogle upotrijebiti za nanošenje velike štete.
Međutim, ova AI aplikacija također bi mogla biti od pomoći dobavljačima kibernetičke sigurnosti, kao što bi mogla pomoć u pronalaženju ranjivosti prije nego što budu iskorišteni. Sposobnost brzog zakrpa propusta može zlonamjernim akterima odrezati mogućnost da ga iskoriste, čime se ukupni napadi ublažavaju.
5. Analiza ukradenih podataka
Podaci su vrijedni kao zlato. Danas, osjetljivi podaci prodaju se na mračnim web tržnicama na stalnoj osnovi, s nekim zlonamjernim akterima koji su spremni platiti vrlo visoku cijenu ako su informacije dovoljno korisne.
Ali da bi ti podaci postali dostupni na tim tržištima, prvo ih je potrebno ukrasti. Podaci se svakako mogu ukrasti u malim količinama, posebno kada napadač cilja na usamljene žrtve. Ali veća hakiranja mogu rezultirati krađom ogromnih baza podataka. U ovom trenutku kibernetički kriminalac mora odrediti koje su informacije u ovoj bazi podataka vrijedne.
Korištenjem umjetne inteligencije, proces isticanja vrijednih informacija mogao bi se pojednostaviti, smanjujući vrijeme koje je potrebno kako bi zlonamjerni akter odredio što je vrijedno prodati ili, s druge strane, izravno iskoristiti ruka. Umjetna inteligencija, u svojoj srži, temelji se na učenju, tako da bi jednog dana moglo postati lako koristiti alat koji pokreće AI za prikupljanje vrijednih osjetljivih podataka.
AI obećava, ali predstavlja i mnoge prijetnje
Kao što je slučaj s većinom vrsta tehnologije, kibernetički kriminalci iskorištavali su i nastavit će iskorištavati umjetnu inteligenciju. Budući da umjetna inteligencija već ima neke nedopuštene mogućnosti, zapravo se ne zna kako će kibernetički kriminalci moći unaprijediti svoje napade pomoću ove tehnologije u bliskoj budućnosti. Tvrtke koje se bave kibernetičkom sigurnošću također mogu sve više raditi s umjetnom inteligencijom u borbi protiv takvih prijetnji, ali vrijeme će pokazati kako će se ova dogoditi.