Bez obzira koristite li ChatGPT ili neki drugi chatbot, morate biti svjesni potencijalnih prijetnji koje dovode u pitanje privatnost vaših podataka.
Chatbotovi postoje već godinama, ali uspon velikih jezičnih modela, kao što su ChatGPT i Google Bard, dao je novi život industriji chatbotova.
Milijuni ljudi sada koriste AI chatbotove diljem svijeta, ali postoje neki važni rizici i nedoumice vezane uz privatnost koje morate imati na umu ako želite isprobati jedan od ovih alata.
1. Prikupljanje podataka
Većina ljudi ne koristi chatbotove samo da bi pozdravili. Moderni chatbotovi dizajnirani su za obradu i odgovaranje na složena pitanja i zahtjeve, pri čemu korisnici često uključuju mnogo informacija u svoje upite. Čak i ako postavljate samo jednostavno pitanje, ne želite da ono ide dalje od vašeg razgovora.
Prema OpenAI odjeljak za podršku, možete izbrisati ChatGPT chat zapise kad god želite, a ti će zapisi biti trajno izbrisani iz OpenAI sustava nakon 30 dana. Međutim, tvrtka će zadržati i pregledati određene zapise razgovora ako su označeni za štetan ili neprikladan sadržaj.
Drugi popularni AI chatbot, Claude, također prati vaše prethodne razgovore. Anthropicov centar za podršku navodi da Claude prati "vaše upite i rezultate u proizvodu kako bi vam pružio dosljedno iskustvo proizvoda tijekom vremena u skladu s vašim kontrolama." Vas može izbrisati vaše razgovore s Claudeom, tako da zaboravlja o čemu ste razgovarali, ali to ne znači da će Anthropic odmah izbrisati vaše zapise iz svojih sustava.
Tu se, naravno, postavlja pitanje: čuvaju li se moji podaci ili ne? Koriste li ChatGPT ili drugi chatbotovi moje podatke?
Ali zabrinutost ne prestaje ovdje.
Kako ChatGPT uči?
Kako bi se pružile informacije, veliki jezični modeli treniraju se s ogromnim količinama podataka. Prema Znanstveni fokus, samo je ChatGPT-4 primio 300 milijardi riječi informacija tijekom perioda obuke. Ovo nije uzeto ravno iz nekoliko enciklopedija. Umjesto toga, programeri chatbota koriste se gomilom informacija s interneta za treniranje svojih modela. To može uključivati podatke iz knjiga, filmova, članaka, unosa na Wikipediji, postova na blogu, komentara, pa čak i stranica s recenzijama.
Imajte na umu da se, ovisno o politici privatnosti programera chatbota, neki od gore navedenih izvora možda neće koristiti u obuci.
Mnogi su kritizirali ChatGPT, tvrdeći da je to prava noćna mora u pogledu privatnosti, ChatGPT-u se ne može vjerovati. Dakle, zašto je to tako?
Ovdje stvari postaju malo mutne. Ako izravno pitate ChatGPT-3.5 ima li pristup recenzijama proizvoda ili komentarima članaka, dobit ćete čvrsto negativno. Kao što možete vidjeti na snimci zaslona u nastavku, GPT-3.5 navodi da nije dobio pristup komentarima korisničkih članaka ili recenzijama proizvoda u svojoj obuci.
Umjesto toga, obučavano je korištenjem "različitog raspona teksta s interneta, uključujući web stranice, knjige, članke i druge javno dostupne pisane materijale do rujna 2021."
Ali je li slučaj isti za GPT-4?
Kada smo pitali GPT-4, rečeno nam je da "OpenAI nije koristio određene korisničke recenzije, osobne podatke ili komentare na članke" u razdoblju obuke chatbota. Dodatno, GPT-4 nam je rekao da se njegovi odgovori generiraju iz "obrazaca u podacima na kojima [je] trenirao, koji se prvenstveno sastoje od knjiga, članaka i drugog teksta s interneta."
Kad smo dodatno ispitali, GPT-4 je tvrdio da određeni sadržaj društvenih medija doista može biti uključen u njegove podatke o obuci, ali kreatori će uvijek ostati anonimni. GPT-4 je posebno naveo da "Čak i ako je sadržaj s platformi kao što je Reddit dio podataka o obuci, [nema] pristup određenim komentarima, postovima ili bilo kojim podacima koji se mogu povezati s pojedincem korisnik."
Još jedan značajan dio odgovora GPT-4 je sljedeći: "OpenAI nije eksplicitno naveo svaki korišteni izvor podataka." Od Naravno, OpenAI-ju bi bilo teško navesti izvore od 300 milijardi riječi, ali to ostavlja prostora za špekulacije.
U an Ars Technica članak, navedeno je da ChatGPT prikuplja "osobne podatke dobivene bez pristanka". U istom članku, spomenut je kontekstualni integritet, koncept koji se odnosi samo na korištenje nečijih informacija u kontekstu u kojem je bio u početku korišten. Ako ChatGPT prekrši ovaj kontekstualni integritet, podaci ljudi mogu biti ugroženi.
Još jedna stvar koja zabrinjava je usklađenost OpenAI-ja s Opća uredba o zaštiti podataka (GDPR). Riječ je o uredbi koju provodi Europska unija kako bi zaštitila podatke građana. Razne europske zemlje, uključujući Italiju i Poljsku, pokrenule su istrage o ChatGPT-u zbog zabrinutosti oko njegove usklađenosti s GDPR-om. Nakratko je ChatGPT čak bio zabranjen u Italiji zbog brige o privatnosti.
OpenAI je prijetio da će se povući iz EU u prošlosti zbog planiranih propisa o umjetnoj inteligenciji, ali je to u međuvremenu povučeno.
ChatGPT je možda najveći AI chatbot danas, ali problemi s privatnošću chatbota ne počinju i ne završavaju s ovim pružateljem usluga. Ako koristite sumnjivog chatbota s nejasnim pravilima o privatnosti, vaši razgovori mogu biti zloupotrijebljeni ili se vrlo osjetljive informacije mogu koristiti u njegovim podacima za obuku.
2. Krađa podataka
Kao i svaki online alat ili platforma, chatbotovi su osjetljivi na kibernetički kriminal. Čak i ako je chatbot učinio sve što je mogao kako bi zaštitio korisnike i njihove podatke, uvijek postoji šansa da će se pametni haker uspjeti infiltrirati u njegove interne sustave.
Ako je određena usluga chatbota pohranjivala vaše osjetljive podatke, poput podataka o plaćanju vaše premije pretplatu, podatke o kontaktu ili slično, to bi se moglo ukrasti i iskoristiti ako bi kibernetički napad pojaviti se.
To je osobito istinito ako koristite manje siguran chatbot čiji programeri nisu uložili u odgovarajuću sigurnosnu zaštitu. Ne samo da interni sustavi tvrtke mogu biti hakirani, već i vaš vlastiti račun postoji šansa da bude ugrožen ako nema upozorenja za prijavu ili sloj provjere autentičnosti.
Sada kada su AI chatbotovi toliko popularni, kibernetički kriminalci prirodno su počeli koristiti ovu industriju za svoje prijevare. Lažne ChatGPT web stranice i dodaci veliki su problem otkako je OpenAI-jev chatbot postao popularan u krajem 2022., s ljudima koji su nasjeli na prijevare i davali osobne podatke pod krinkom legitimnosti i povjerenje.
U ožujku 2023. MUO je izvijestio o a lažno ChatGPT Chrome proširenje koje krade Facebook prijave. Dodatak bi mogao iskoristiti Facebook backdoor za hakiranje računa visokog profila i krađu korisničkih kolačića. Ovo je samo jedan primjer brojnih lažnih ChatGPT usluga osmišljenih za prevaru nesvjesnih žrtava.
3. Infekcija zlonamjernim softverom
Ako koristite sumnjivog chatbota, a da toga niste svjesni, mogli biste otkriti da vam chatbot pruža veze na zlonamjerna web-mjesta. Možda vas je chatbot upozorio na primamljivo darivanje ili je pružio izvor za jednu od svojih izjava. Ako operateri usluge imaju nedopuštene namjere, cijela svrha platforme može biti širenje zlonamjernog softvera i prijevara putem zlonamjernih poveznica.
Alternativno, hakeri mogu ugroziti legitimnu uslugu chatbota i koristiti je za širenje zlonamjernog softvera. Ako se dogodi da ovaj chatbot bude jako puno ljudi, tada će tisuće ili čak milijuni korisnika biti izloženi ovom zlonamjernom softveru. Lažne ChatGPT aplikacije bile su čak i na Apple App Storeu, pa je najbolje da budete oprezni.
Općenito, nikad prije ne biste smjeli kliknuti na poveznice koje chatbot nudi pokretanje preko web stranice za provjeru veza. Ovo se može činiti iritantnim, ali uvijek je najbolje biti siguran da stranica na koju ste dovedeni nema zlonamjeran dizajn.
Osim toga, nikada ne biste trebali instalirati dodatke i proširenja za chatbot bez prethodne provjere njihove legitimnosti. Malo istražite aplikaciju kako biste vidjeli je li dobro ocijenjena, a također pretražite razvojnog programera aplikacije kako biste vidjeli jeste li pronašli nešto sumnjivo.
Chatbotovi nisu otporni na probleme privatnosti
Kao i većina današnjih internetskih alata, chatbotovi su opetovano kritizirani zbog mogućih zamki u pogledu sigurnosti i privatnosti. Bilo da se radi o pružatelju usluga chatbota koji šteti uglovima kada je riječ o sigurnosti korisnika ili o stalnim rizicima kibernetičkih napada i prijevara, ključno je da znate što vaša chatbot usluga prikuplja o vama i koristi li odgovarajuću sigurnost mjere.