ChatGPT može pomoći ljudima u velikom broju stvari, uključujući pristup vašim najosjetljivijim podacima.

Od lansiranja, ChatGPT, OpenAI chatbot, koristili su milijuni ljudi za pisanje teksta, stvaranje glazbe i generiranje koda. Ali kako sve više ljudi koristi AI chatbot, važno je uzeti u obzir sigurnosne rizike.

Kao i svaka druga tehnologija, ChatGPT se može koristiti u opake svrhe. Hakeri ga, na primjer, mogu koristiti za stvaranje zlonamjernog sadržaja, poput pisanja lažnih poruka e-pošte kako bi dobili pristup vašem računalu ili čak vašem bankovnom računu.

ChatGPT može pomoći kibernetičkim kriminalcima da hakiraju vaše računalo

Hakeri, uključujući script kiddies, mogu koristite ChatGPT za stvaranje novog zlonamjernog softvera ili poboljšati postojeće. Neki kibernetički kriminalci već koriste chatbot, posebno njegove ranije verzije, za pisanje koda za koji tvrde da može šifrirati datoteke.

Kako bi se suprotstavio takvim slučajevima upotrebe, OpenAI je implementirao mehanizme za odbijanje upita koji od ChatGPT-a traže stvaranje zlonamjernog softvera. Na primjer, ako tražite od chatbota da "napiše zlonamjerni softver", neće. Unatoč tome, kibernetički kriminalci lako zaobilaze te prepreke moderiranja sadržaja.

instagram viewer

Djelujući kao ispitivač olovke, akter prijetnje može preformulirati svoje upite kako bi prevario ChatGPT da napiše kod, koji zatim može prilagoditi i koristiti u kibernetičkim napadima.

A izvješće Check Pointa, izraelska sigurnosna tvrtka, ukazuje da je haker mogao upotrijebiti ChatGPT za stvaranje osnovnog zlonamjernog softvera Infostealer. Sigurnosna tvrtka također je otkrila još jednog korisnika koji tvrdi da mu je ChatGPT pomogao izgraditi alat za višeslojnu enkripciju koji može šifrirati nekoliko datoteka u napadu ransomwarea.

U zasebnom incidentu, istraživači su potaknuli ChatGPT da generira zlonamjerni VBA kod koji bi se mogao ugraditi u Microsoft Excel datoteku koja bi zarazila vaše računalo ako se otvori; uspješno je to učinio. Osim toga, postoje tvrdnje da ChatGPT može kodirati zlonamjerni softver koji može špijunirati vaše poteze na tipkovnici.

Može li ChatGPT hakirati vaš bankovni račun?

Mnoge povrede podataka počinju s uspješan phishing napad. Phishing napadi često uključuju zlonamjernog aktera koji primatelju šalje e-poruku koja sadrži legitimne dokumente ili poveznice, koje, kada se klikne na njih, mogu instalirati zlonamjerni softver na njihov uređaj. Na ovaj način kod iz ChatGPT-a ne mora izravno hakirati vaš bankovni račun. Netko samo treba koristiti ChatGPT kako bi mu pomogao da vas prevari da mu date pristup.

Srećom, većinu tradicionalnih phishing prijevara možete lako prepoznati; često ih karakteriziraju gramatičke pogreške, pravopisne pogreške i čudne fraze. Ali sve su to pogreške koje ChatGPT rijetko čini, čak i kada se koristi za sastavljanje zlonamjernih poruka e-pošte za prijevare krađe identiteta.

Kada se koriste u phishing prijevarama, poruke koje izgledaju kao da su iz legitimnog izvora mogu žrtvama olakšati odreći svoje osobne podatke, poput bankovnih lozinki.

Ako vam je banka poslala poruku e-poštom, razmislite o izravnom posjetu web stranici banke umjesto da kliknete bilo koju ugrađenu vezu. Klikanje na nasumične poveznice i privitke, osobito one koji traže da se negdje prijavite, rijetko je dobra ideja.

Kod krađe identiteta uglavnom se radi o količini. ChatGPT može pomoći u jačanju phishing kampanja jer može brzo ispumpati ogromne količine tekstova prirodnog zvuka koji su prilagođeni određenoj publici.

Druga vrsta phishing napada koji uključuje korištenje ChatGPT-a je kada haker kreira lažni račun na popularnoj platformi za chat kao što je Discord i pretvara se da je predstavnik kupaca. Lažni predstavnik kupaca tada kontaktira klijente koji su izrazili zabrinutost i nudi im pomoć. Ako korisnik padne u zamku, kibernetički kriminalac će ga preusmjeriti na lažnu web stranicu koja ga vara da podijeli osobne podatke, poput podataka za prijavu u banku.

Zaštitite svoje računalo i bankovni račun u eri umjetne inteligencije

ChatGPT je moćan i vrijedan alat koji može odgovoriti na mnoga pitanja koja mu postavite. Ali chatbot se također može koristiti u zlonamjerne svrhe, poput generiranja phishing poruka i stvaranja zlonamjernog softvera.

Dobra je vijest da OpenAI nastavlja implementirati mjere koje sprječavaju korisnike da iskorištavaju ChatGPT postavljanjem štetnih upita. S druge strane, prijetnje nastavljaju pronalaziti nove načine za zaobilaženje tih ograničenja.

Kako biste smanjili potencijalne opasnosti AI chatbota, ključno je znati njihove moguće rizike i najbolje moguće sigurnosne mjere kako biste se zaštitili od hakera.