Razgovori s chatbotovima mogu se činiti intimnima, ali zapravo svaku riječ dijelite s privatnom tvrtkom.
Popularnost chatbota s umjetnom inteligencijom je porasla. Iako su njihove mogućnosti impresivne, važno je priznati da chatbotovi nisu besprijekorni. Postoje inherentni rizici povezani s upotrebom AI chatbota, kao što su zabrinutost zbog privatnosti i mogući kibernetički napadi. Ključno je biti oprezan kada se bavite chatbotovima.
Istražimo potencijalne opasnosti dijeljenja informacija s AI chatbotovima i vidimo koje im se vrste informacija ne bi trebale otkrivati.
Rizici uključeni u korištenje AI Chatbota
Rizici privatnosti i ranjivosti povezani s AI chatbotovima predstavljaju značajne sigurnosne probleme za korisnike. Možda će vas iznenaditi, ali vaši prijateljski suradnici u chatu kao što su ChatGPT, Bard, Bing AI i drugi mogu nenamjerno izložiti vaše osobne podatke na mreži. Ovi se chatbotovi oslanjaju na jezične modele umjetne inteligencije, koji izvlače uvide iz vaših podataka.
Na primjer, trenutna verzija Googleovog chatbota, Bard, izričito navodi na svojoj stranici s često postavljanim pitanjima da prikuplja i koristi podatke razgovora za treniranje svog modela. Slično tome,
ChatGPT također ima problema s privatnošću jer može zadržati zapise razgovora za poboljšanje modela. Ali nudi mogućnost isključivanja.Budući da AI chatbotovi pohranjuju podatke na poslužiteljima, postaju ranjivi na pokušaje hakiranja. Ovi poslužitelji sadrže obilje informacija koje kibernetički kriminalci mogu iskoristiti na razne načine. Mogu se infiltrirati u poslužitelje, krasti podatke i prodavati ih na mračnim internetskim tržištima. Osim toga, hakeri mogu iskoristiti te podatke za probijanje lozinki i stjecanje neovlaštenog pristupa vašim uređajima.
Nadalje, podaci generirani iz vaših interakcija s AI chatbotovima nisu ograničeni samo na dotične tvrtke. Iako tvrde da se podaci ne prodaju u reklamne ili marketinške svrhe, dijele se s određenim trećim stranama radi zahtjeva održavanja sustava.
OpenAI, organizacija koja stoji iza ChatGPT-a, priznaje da dijeli podatke s "odabranom grupom pouzdanih pružatelja usluga" i da bi neko "ovlašteno osoblje OpenAI-ja" moglo imati pristup podacima. Ove prakse pokreću dodatne sigurnosne probleme koji okružuju interakcije AI chatbota, kao što kritičari tvrde generativni sigurnosni problemi AI mogu se pogoršati.
Stoga je zaštita osobnih podataka od AI chatbota ključna za očuvanje vaše privatnosti.
Što ne dijeliti s AI Chatbotovima?
Kako biste osigurali svoju privatnost i sigurnost, neophodno je pridržavati se ovih pet najboljih praksi pri interakciji s AI chatbotovima.
1. Financijski detalji
Limenka kibernetički kriminalci koriste AI chatbotove kao što je ChatGPT da hakiraju vaš bankovni račun? Uz raširenu upotrebu AI chatbota, mnogi su se korisnici okrenuli ovim jezičnim modelima za financijske savjete i upravljanje osobnim financijama. Iako mogu poboljšati financijsku pismenost, ključno je znati potencijalne opasnosti dijeljenja financijskih podataka s AI chatbotovima.
Kada koristite chatbotove kao financijske savjetnike, riskirate izlaganje svojih financijskih podataka potencijalnim kibernetičkim kriminalcima koji bi ih mogli iskoristiti za pražnjenje vaših računa. Unatoč tvrtkama koje tvrde da podatke o razgovorima anonimiziraju, treće strane i neki zaposlenici mogu im još uvijek imati pristup. To izaziva zabrinutost u vezi s profiliranjem, gdje bi se vaši financijski podaci mogli koristiti u zlonamjerne svrhe kao što su kampanje ransomwarea ili prodani marketinškim agencijama.
Kako biste zaštitili svoje financijske podatke od AI chatbota, morate voditi računa o tome što dijelite s ovim generativnim AI modelima. Preporučljivo je ograničiti vaše interakcije na dobivanje općih informacija i postavljanje širokih pitanja. Ako vam je potreban personalizirani financijski savjet, možda postoje bolje opcije od oslanjanja isključivo na AI robote. Oni mogu dati netočne ili pogrešne informacije, potencijalno riskirajući vaš teško zarađeni novac. Umjesto toga, razmislite o traženju savjeta od ovlaštenog financijskog savjetnika koji može pružiti pouzdane i prilagođene smjernice.
2. Vaše osobne i intimne misli
Mnogi korisnici se okreću AI chatbotovi za traženje terapije, nesvjesni mogućih posljedica za svoje mentalno blagostanje. Razumijevanje opasnosti od otkrivanja osobnih i intimnih podataka tim chatbotovima je ključno.
Prvo, chatbotovima nedostaje znanje o stvarnom svijetu i mogu ponuditi samo generičke odgovore na upite vezane uz mentalno zdravlje. To znači da lijekovi ili tretmani koje oni predlažu možda nisu prikladni za vaše specifične potrebe i mogu naškoditi vašem zdravlju.
Nadalje, dijeljenje osobnih misli s AI chatbotovima izaziva značajna pitanja privatnosti. Vaša privatnost može biti ugrožena jer vaše tajne, a intimne misli mogu procuriti na internetu. Zlonamjerni pojedinci mogli bi iskoristiti te informacije kako bi vas špijunirali ili prodali vaše podatke na mračnom webu. Stoga je zaštita privatnosti osobnih misli pri interakciji s AI chatbotovima od iznimne važnosti.
Ključno je pristupiti AI chatbotovima kao alatima za opće informacije i podršku, a ne kao zamjeni za profesionalnu terapiju. Ako trebate savjet ili liječenje za mentalno zdravlje, savjetovanje s kvalificiranim stručnjakom za mentalno zdravlje uvijek je preporučljivo. Oni mogu pružiti personalizirane i pouzdane smjernice dajući prioritet vašoj privatnosti i dobrobiti.
3. Povjerljive informacije o vašem radnom mjestu
Još jedna pogreška koju korisnici moraju izbjegavati u interakciji s AI chatbotovima je dijeljenje povjerljivih informacija vezanih uz posao. Čak su i istaknuti tehnološki divovi poput Applea, Samsunga, JPMorgana i Googlea, tvorca Barda, svojim zaposlenicima zabranili korištenje AI chatbota na radnom mjestu.
A Bloombergovo izvješće istaknuo je slučaj u kojem su zaposlenici Samsunga koristili ChatGPT za potrebe kodiranja i nenamjerno učitali osjetljivi kod na generativnu AI platformu. Ovaj je incident rezultirao neovlaštenim otkrivanjem povjerljivih informacija o Samsungu, što je natjeralo tvrtku da provede zabranu korištenja AI chatbota. Kao programer koji traži pomoć od umjetne inteligencije za rješavanje problema s kodiranjem, ovo je razlog zašto ne biste trebali vjerovati AI chatbotovima kao što je ChatGPT s povjerljivim informacijama. Bitno je biti oprezan pri dijeljenju osjetljivog koda ili detalja povezanih s poslom.
Isto tako, mnogi se zaposlenici oslanjaju na AI chatbotove za sažimanje zapisnika sa sastanaka ili automatiziranje zadataka koji se ponavljaju, što predstavlja rizik od nenamjernog izlaganja osjetljivih podataka. Stoga je održavanje privatnosti povjerljivih radnih informacija i suzdržavanje od njihovog dijeljenja s AI chatbotovima od iznimne važnosti.
Korisnici mogu zaštititi svoje osjetljive podatke i zaštititi svoje organizacije od nenamjernog curenja ili kršenja podataka tako da imaju na umu rizike povezane s dijeljenjem podataka povezanih s poslom.
4. Lozinke
Ključno je naglasiti da je dijeljenje vaših zaporki na mreži, čak i s jezičnim modelima, apsolutno zabranjeno. Ovi modeli pohranjuju vaše podatke na javnim poslužiteljima, a otkrivanje vaših lozinki njima ugrožava vašu privatnost. U provali poslužitelja, hakeri mogu pristupiti i iskoristiti vaše lozinke za financijsku štetu.
Značajan povreda podataka koja uključuje ChatGPT dogodilo se u svibnju 2022., što je izazvalo ozbiljnu zabrinutost oko sigurnosti chatbot platformi. Nadalje, ChatGPT je zabranjen u Italiji zbog Opće uredbe Europske unije o zaštiti podataka (GDPR). Talijanski regulatori smatrali su da AI chatbot nije u skladu sa zakonima o privatnosti, ističući rizike od povrede podataka na platformi. Posljedično, postaje najvažnije zaštititi svoje vjerodajnice za prijavu od AI chatbota.
Ako ne dijelite svoje zaporke s ovim modelima chatbota, možete proaktivno zaštititi svoje osobne podatke i smanjiti vjerojatnost da postanete žrtva cyber prijetnji. Zapamtite, zaštita vaših vjerodajnica za prijavu bitan je korak u održavanju vaše privatnosti i sigurnosti na mreži.
5. Podaci o prebivalištu i drugi osobni podaci
Važno je suzdržati se od dijeljenja osobnih identifikacijskih podataka (PII) s AI chatbotovima. PII obuhvaća osjetljive podatke koji se mogu koristiti za vašu identifikaciju ili lociranje, uključujući vašu lokaciju, broj socijalnog osiguranja, datum rođenja i zdravstvene podatke. Osiguravanje privatnosti osobnih i stambenih podataka prilikom interakcije s AI chatbotovima trebao bi biti glavni prioritet.
Kako biste zadržali privatnost svojih osobnih podataka kada radite s AI chatbotovima, evo nekoliko ključnih praksi kojih se trebate pridržavati:
- Upoznajte se s pravilima privatnosti chatbota kako biste razumjeli povezane rizike.
- Izbjegavajte postavljanje pitanja koja mogu nenamjerno otkriti vaš identitet ili osobne podatke.
- Budite oprezni i suzdržite se od dijeljenja svojih medicinskih podataka s AI botovima.
- Imajte na umu potencijalne ranjivosti svojih podataka kada koristite AI chatbotove na društvenim platformama kao što je SnapChat.
Izbjegavajte prekomjerno dijeljenje s AI Chatbotovima
Zaključno, iako AI chatbot tehnologija nudi značajan napredak, ona također predstavlja ozbiljne rizike za privatnost. Zaštita vaših podataka kontroliranjem dijeljenih informacija ključna je pri interakciji s AI chatbotovima. Ostanite oprezni i pridržavajte se najboljih praksi kako biste ublažili potencijalne rizike i osigurali privatnost.