ChatGPT može biti koristan alat, bile vaše namjere dobre ili loše. To znači da vam ChatGPT može pomoći ako se želite upustiti u prijevaru.

Iako mnogi digitalni urođenici hvale ChatGPT, neki se boje da čini više štete nego koristi. Vijesti o prevarantima koji su oteli AI kruže internetom, povećavajući nelagodu među skepticima. Čak smatraju ChatGPT opasnim alatom.

AI chatbotovi nisu savršeni, ali ne morate ih u potpunosti izbjegavati. Evo svega što biste trebali znati o tome kako prevaranti zlorabe ChatGPT i što možete učiniti da ih zaustavite.

Hoće li ChatGPT ugroziti vaše osobne podatke?

Većina front-end sigurnosnih zabrinutosti o ChatGPT-u proizlazi iz nagađanja i neprovjerenih izvješća. Platforma je ipak pokrenuta tek u studenom 2022. Prirodno je da novi korisnici imaju pogrešne predodžbe o privatnosti i sigurnosti nepoznatih alata.

Prema OpenAI uvjeti korištenja, evo kako ChatGPT obrađuje sljedeće podatke:

Podaci po kojima se može identificirati osoba

Glasine kažu da ChatGPT prodaje osobne podatke (PII).

Platformu je pokrenuo OpenAI, ugledni istraživački laboratorij za umjetnu inteligenciju kojeg financiraju tehnološki investitori poput Microsofta i Elona Muska. ChatGPT bi trebao koristiti samo korisničke podatke za pružanje usluga navedenih u politika privatnosti.

Štoviše, ChatGPT traži minimalne informacije. Možete kreirati račun samo sa svojim imenom i adresom e-pošte.

Razgovori

OpenAI čuva ChatGPT razgovore sigurnima, ali zadržava pravo da ih nadzire. Treneri AI-a neprestano traže područja poboljšanja. Budući da platforma sadrži goleme, ali ograničene skupove podataka, rješavanje pogrešaka, bugova i ranjivosti zahtijeva ažuriranja cijelog sustava.

Međutim, OpenAI može nadzirati razgovore samo u istraživačke svrhe. Njihova distribucija ili prodaja trećim stranama krši vlastite uvjete korištenja.

Javno informiranje

Prema BBC, OpenAI je trenirao ChaGPT na 300 milijardi riječi. Prikuplja podatke s javnih web stranica, poput platformi društvenih medija, poslovnih web stranica i odjeljaka s komentarima. Osim ako niste izašli iz mreže i izbrisali svoj digitalni otisak, ChatGPT vjerojatno ima vaše podatke.

Koje sigurnosne rizike predstavlja ChatGPT?

Iako ChatGPT nije sam po sebi opasan, platforma i dalje predstavlja sigurnosne rizike. Lopovi mogu zaobići ograničenja kako bi izvršili razne kibernetičke napade.

1. Uvjerljive phishing e-poruke

Umjesto da provode sate pišući e-poruke, prevaranti koriste ChatGPT. Brz je i točan. Napredni jezični modeli (kao što su GPT-3.5 i GPT-4) mogu proizvesti stotine koherentnih, uvjerljivih phishing e-poruka u roku od nekoliko minuta. Čak usvajaju jedinstvene tonove i stilove pisanja.

Budući da ChatGPT otežava uočavanje pokušaja hakiranja, budite posebno oprezni prije odgovaranja na e-poštu. Kao opće pravilo, izbjegavajte otkrivanje informacija. Imajte na umu da legitimne tvrtke i organizacije rijetko traže povjerljive PII putem nasumičnih e-poruka.

Naučite uočiti pokušaje hakiranja. Iako pružatelji usluga e-pošte filtriraju neželjene poruke, neki lukavi mogli bi propasti. Ipak biste trebali znati kako izgledaju phishing poruke.

2. Krađa podataka

ChatGPT koristi LLM otvorenog koda, koji svatko može modificirati. Koderi koji su vješti u velikim jezičnim modelima (LLM) i strojnom učenju često integriraju unaprijed obučene AI modele u svoje naslijeđene sustave. Obuka AI na novim skupovima podataka mijenja funkcionalnost. Na primjer, ChatGPT postaje pseudo-fitnes stručnjak ako ga hranite receptima i rutinama vježbanja.

Iako je suradnički i prikladan, open-sourceing ostavlja tehnologije ranjivima na zlouporabu. Vješti kriminalci već iskorištavaju ChatGPT. Oni ga treniraju na velikim količinama ukradenih podataka, pretvarajući platformu u osobnu bazu podataka za prijevare.

Upamtite: nemate kontrolu nad načinom na koji prevaranti rade. Najbolji pristup je kontaktirati Federalnu trgovinsku komisiju (FTC) kada primijetite znakove krađe identiteta.

3. Proizvodnja zlonamjernog softvera

ChatGPT piše upotrebljive isječke koda u različitim programskim jezicima. Većina uzoraka zahtijeva minimalne izmjene kako bi pravilno funkcionirala, osobito ako strukturirate sažeti upit. Ovu značajku možete iskoristiti za razvoj aplikacija i web-mjesta.

Budući da je ChatGPT obučen na milijardama skupova podataka, također poznaje nedopuštene prakse, poput razvoja zlonamjernog softvera i virusa. OpenAI zabranjuje chatbotovima pisanje zlonamjernih kodova. Ali prevaranti zaobilaze ta ograničenja restrukturiranjem upita i postavljanjem preciznih pitanja.

Slika ispod pokazuje da ChatGPT odbija pisanje koda u zlonamjerne svrhe.

U međuvremenu, fotografija u nastavku pokazuje da će vam ChatGPT dati štetne informacije ako ispravno formulirate svoje upite.

4. Krađa intelektualnog vlasništva

Neetični blogeri vrte sadržaj koristeći ChatGPT. Budući da platforma radi na naprednim LLM-ovima, može brzo preformulirati tisuće riječi i izbjeći oznake plagijata.

ChatGPT je preformulirao donji tekst u 10 sekundi.

Naravno, vrtenje se i dalje klasificira kao plagijat. Parafrazirani članci o umjetnoj inteligenciji ponekad se rangiraju slučajno, ali Google općenito preferira originalni sadržaj iz renomiranih izvora. Jeftini trikovi i SEO hakovi ne mogu pobijediti visokokvalitetno, zimzeleno pisanje.

Također, Google izdaje više osnovnih ažuriranja godišnje. Uskoro će se usredotočiti na uklanjanje lijenih, neoriginalnih dijelova generiranih umjetnom inteligencijom iz SERP-ova.

5. Generiranje neetičkih odgovora

AI jezični modeli nemaju pristranosti. Oni daju odgovore analizom korisničkih zahtjeva i izvlačenjem podataka iz svoje postojeće baze podataka.

Uzmimo ChatGPT kao primjer. Kada pošaljete upit, on odgovara na temelju skupova podataka koje OpenAI koristi za obuku.

Dok pravila sadržaja ChatGPT-a blokiraju neprikladne zahtjeve, korisnici ih zaobilaze upitima za bjekstvo iz zatvora. Daju mu precizne, pametne upute. ChatGPT daje donji odgovor ako ga tražite da prikaže psihopatskog izmišljenog lika.

Dobra vijest je OpenAI nije izgubio kontrolu nad ChatGPT-om. Njegovi stalni napori u pooštravanju ograničenja sprječavaju ChatGPT u stvaranju neetičkih odgovora, bez obzira na korisnički unos. Bjekstvo iz zatvora neće biti tako lako u budućnosti.

6. Quid Pro Quo

Brzi rast novih, nepoznatih tehnologija poput ChatGPT-a stvara prilike za napade quid pro quo. To su taktike društvenog inženjeringa u kojima prevaranti mame žrtve lažnim ponudama.

Većina ljudi još nije istražila ChatGPT. A hakeri iskorištavaju zbrku šireći obmanjujuće promocije, e-poruke i najave.

Najozloglašeniji slučajevi uključuju lažne aplikacije. Novi korisnici ne znaju da ChatGPT-u mogu pristupiti samo putem OpenAI-ja. Oni nesvjesno preuzimaju neželjene programe i proširenja.

Većina samo želi preuzimanje aplikacija, ali drugi kradu osobne podatke. Lopovi ih zaraze zlonamjernim softverom i vezama za krađu identiteta. Na primjer, u ožujku 2023., a lažna ChatGPT Chrome ekstenzija ukrala je Facebook vjerodajnice od 2.000+ korisnika dnevno.

Za borbu protiv pokušaja quid pro quo, izbjegavajte aplikacije trećih strana. OpenAI nikada nije izdao ovlaštenu mobilnu aplikaciju, računalni program ili proširenje preglednika za ChatGPT. Sve što se tako tvrdi je prijevara.

Koristite ChatGPT sigurno i odgovorno

ChatGPT nije prijetnja sam po sebi. Sustav ima ranjivosti, ali neće ugroziti vaše podatke. Umjesto da se bojite AI tehnologija, istražite kako ih prevaranti ugrađuju u taktike društvenog inženjeringa. Na taj način možete se proaktivno zaštititi.

Ali ako još uvijek imate nedoumica u vezi ChatGPT-a, isprobajte Bing. Novi Bing ima chatbot koji pokreće AI koji radi na GPT-4, izvlači podatke s interneta i pridržava se strogih sigurnosnih mjera. Možda ćete smatrati da više odgovara vašim potrebama.