FraudGPT je jezični model fino podešen za pomoć kriminalcima u prijevarnim aktivnostima. Saznajte kako se zaštititi od potencijalnih prijetnji.

Uspon umjetne inteligencije (AI) dvosjekli je mač. Kao i svaka transformativna tehnologija, umjetna inteligencija nudi golem potencijal, ali i goleme rizike. Unatoč snažnom nastojanju da se regulira umjetna inteligencija, čini se da su akteri prijetnji preduhitrili krivulju.

Novi alat u stilu ChatGPT-a, FraudGPT, postaje sve popularniji među kibernetičkim kriminalcima, omogućujući im da automatiziraju i bolje izvrše veliki dio svojih operacija prijevare. Svatko može postati žrtva, stoga je važno biti informiran. Evo svega što do sada znamo o FraudGPT-u.

Što je FraudGPT?

FraudGPT je alat umjetne inteligencije koji pokreće veliki jezični model koji je posebno fino podešen kako bi pomogao kibernetičkim kriminalcima da počine kibernetičko zlodjelo. AI alat koji se temelji na pretplati omogućuje akterima prijetnji da olakšaju svoje kriminalne aktivnosti kao što su kartice, krađa identiteta i stvaranje zlonamjernog softvera.

instagram viewer

Iako detalji o alatu ostaju vrlo ograničeni, istraživači iz Netenricha, tvrtke za istraživanje sigurnosti, otkrili su nekoliko oglasa na mračnom webu koji reklamiraju alat. Prema izvješće o istraživanju tvrtke Netenrich, naknade za pretplatu kreću se između 200 USD mjesečno i 1700 USD godišnje.

Da biste bolje zamislili alat, FraudGPT možete zamisliti kao ChatGPT, ali za prijevaru. Ali kako točno funkcionira FraudGPT i kako ga kibernetički kriminalci koriste?

Kako funkcionira FraudGPT?

Kredit za sliku: Freepik

U svojoj srži, FraudGPT se ne razlikuje značajno od bilo kojeg alata koji pokreće veliki jezični model. Drugim riječima, sam alat je interaktivno sučelje za kriminalce za pristup posebnoj vrsti jezičnog modela koji je prilagođen za počinjenje kibernetičkih zločina.

Još uvijek ne shvaćate? Evo grube ideje o čemu govorimo. U prvim danima lansiranja ChatGPT-a, AI chatbot mogao se koristiti za gotovo sve, uključujući pomoć cyber kriminalcima u stvaranju zlonamjernog softvera. To je bilo moguće jer je temeljni jezični model ChatGPT-a treniran na skupu podataka koji je vjerojatno sadržavao uzorke širokog spektra podataka, uključujući podatke koji bi mogli pomoći kriminalnom pothvatu.

Veliki jezični modeli obično se hrane svim dobrim stvarima, poput znanstvenih teorija, zdravstvenih informacija i politike, na one ne tako dobre, kao što su uzorci zlonamjernog softverskog koda, poruke iz kartica i phishing kampanja i drugih kriminalnih materijala. Kada se radi o vrsti skupova podataka koji su potrebni za obuku jezičnih modela kao što je onaj koji pokreće ChatGPT, gotovo je neizbježno da će model sadržavati uzorke neželjenih materijala.

Unatoč tipično pedantnim naporima da se eliminiraju neželjeni materijali u skupu podataka, neki se provlače, i obično su još uvijek dovoljni da modelu daju mogućnost generiranja materijala za olakšavanje kibernetički kriminal. Zbog toga s pravom brzi inženjering, možete nabaviti alate kao što su ChatGPT, Google Bard i Bing AI koji će vam pomoći u pisanju prijevarne e-pošte ili računalnog zlonamjernog softvera.

Ako alati poput ChatGPT-a mogu pomoći cyber kriminalcima u počinjenju zločina unatoč svim naporima da se ti AI chatbotovi učine sigurnima, sada razmislite o snagu koju bi alat poput FraudGPT mogao donijeti, s obzirom da je posebno fino podešen na zlonamjernim materijalima kako bi bio prikladan za kibernetički kriminal. To je kao da je zli blizanac ChatGPT-a stavljen na steroide.

Dakle, za korištenje alata, kriminalci mogu samo zatražiti chatbot kao što bi učinili s ChatGPT-om. Mogli bi ga zamoliti da, recimo, napiše phishing e-poštu za Jane Doe, koja radi u tvrtki ABC, ili ga možda zamoliti da napiše malware koristeći C++ kako bi ukrao sve PDF datoteke s Windows 10 računala. Kriminalci bi u osnovi samo smislili zlu mehanizaciju i prepustili chatbotu da podigne teške poslove.

Kako se možete zaštititi od prijevareGPT?

Unatoč novoj vrsti alata, prijetnja koju predstavlja FraudGPT nije bitno drugačija. Moglo bi se reći da uvodi više automatizacije i učinkovitosti u već uspostavljene metode izvršenja kibernetičkog kriminala.

Kriminalci koji koriste alat bi, barem teoretski, mogli pisati uvjerljivije phishing e-poruke, bolji plan prijevare i stvaraju učinkovitiji zlonamjerni softver, ali uglavnom bi se i dalje oslanjali na utvrđene načine izvršavanja svojih opakih planovi. Kao rezultat toga, utvrđeni načini zaštite i dalje vrijede:

  • Budite oprezni s neželjenim porukama koje traže informacije ili vas upućuju da kliknete na poveznice. Nemojte davati informacije niti klikati veze u ovim porukama osim ako ne potvrdite izvor.
  • Kontaktirajte tvrtke izravno pomoću neovisnog, provjerenog broja kako biste provjerili legitimnost. Nemojte koristiti podatke za kontakt navedene u sumnjivim porukama.
  • Koristite jake, jedinstvene lozinke koje je teško probiti i prihvatite autentifikaciju u dva faktora kada je dostupna za sve račune. Nikada nemojte dijeliti lozinke ili kodove koji su vam poslani.
  • Redovito provjeravajte izvode računa radi sumnjivih aktivnosti.
  • Redovno ažurirajte softver i koristite antivirusne ili antimalware alate.
  • Uništite dokumente koji sadrže osobne podatke ili financijske podatke kada više nisu potrebni.

Za više informacija o tome kako se zaštititi, pročitajte naš vodič na kako se zaštititi u eri umjetne inteligencije.

Ostanite informirani kako biste se zaštitili

Pojava alata kao što je FraudGPT podsjeća nas da unatoč svemu dobrom što nam AI može učiniti, on još uvijek predstavlja vrlo moćan alat u rukama aktera prijetnji.

Dok vlade i velike tvrtke za umjetnu inteligenciju kreću u bjesomučnu utrku za donošenje boljih načina za reguliranje umjetne inteligencije, važno je biti svjestan prijetnje koju AI trenutno predstavlja i poduzeti potrebne mjere opreza za zaštitu sami.