Mnogi od nas koriste ChatGPT neozbiljno, ali dolazi s ozbiljnim problemima sigurnosti i privatnosti o kojima trebate znati.
U siječnju 2023., samo dva mjeseca nakon pokretanja, ChatGPT (Generative Pre-trained Transformer) postao je najbrže rastuća aplikacija svih vremena, prikupivši više od 100 milijuna korisnika.
OpenAI-jev napredni chatbot možda je ponovno potaknuo interes javnosti za umjetnu inteligenciju, ali malo je njih ozbiljno razmišljalo o potencijalnim sigurnosnim rizicima povezanim s ovim proizvodom.
ChatGPT: Sigurnosne prijetnje i problemi
Tehnologija koja podupire ChatGPT i druge chatbotove može biti slična, ali ChatGPT je u zasebnoj kategoriji. Ovo je sjajna vijest ako ga namjeravate koristiti kao neku vrstu osobnog asistenta, ali zabrinjavajuća ako uzmete u obzir da ga koriste i akteri prijetnji.
Cyber kriminalci mogu koristiti ChatGPT za pisanje zlonamjernog softvera, izrađivati web-stranice za prijevare, generirati phishing e-poruke, stvarati lažne vijesti i tako dalje. Zbog toga ChatGPT može predstavljati veći rizik za kibernetičku sigurnost nego korist, npr
Blještavo računalo staviti u analizu.U isto vrijeme, postoji ozbiljna zabrinutost da sam ChatGPT ima određene neriješene ranjivosti. Na primjer, u ožujku 2023. pojavila su se izvješća o tome da neki korisnici mogu vidjeti naslove tuđih razgovora. Kao The Verge izvijestio je u to vrijeme, izvršni direktor OpenAI-ja Sam Altman objasnio je da je "bug u knjižnici otvorenog koda" uzrokovao problem.
Ovo samo naglašava koliko je važno ograničite ono što dijelite s ChatGPT-om, koji prema zadanim postavkama prikuplja nevjerojatnu količinu podataka. Tehnološki div Samsung naučio je to na teži način, kada je grupa zaposlenika koji su koristili chatbota kao pomoćnika slučajno dostavili povjerljive informacije.
Je li ChatGPT prijetnja vašoj privatnosti?
Sigurnost i privatnost nisu jedno te isto, ali su blisko povezani i često se križaju. Ako je ChatGPT sigurnosna prijetnja, onda je i prijetnja privatnosti, i obrnuto. Ali što to znači u praktičnijem smislu? Kakva su pravila o sigurnosti i privatnosti ChatGPT-a?
Milijarde riječi sakupljene su s interneta kako bi se stvorila ogromna baza podataka ChatGPT-a. Ova baza podataka je u stalnom stanju ekspanzije, jer ChatGPT pohranjuje sve što korisnici dijele. Neprofitna organizacija sa sjedištem u SAD-u Zdrav razum dao ChatGPT-u ocjenu privatnosti od 61 posto, uz napomenu da chatbot prikuplja osobne podatke (PII) i druge osjetljive podatke. Većina ovih podataka pohranjuje se ili dijeli s određenim trećim stranama.
U svakom slučaju, trebali biste biti oprezni kada koristite ChatGPT, posebno ako ga koristite za posao, ili za obradu osjetljivih informacija. Kao opće pravilo, ne biste trebali dijeliti s botom ono što ne biste željeli da javnost zna.
Rješavanje sigurnosnih rizika povezanih s ChatGPT-om
Umjetna inteligencija će u jednom trenutku biti regulirana, ali teško je zamisliti svijet u kojem ona ne predstavlja sigurnosnu prijetnju. Kao i svaka tehnologija, može se - i hoće - zlorabiti.
U budućnosti će chatbotovi postati sastavni dio tražilica, glasovnih asistenata i društvenih mreža, prema Malwarebytes. Imat će ulogu u raznim industrijama, od zdravstva i obrazovanja do financija i zabave.
Ovo će radikalno promijeniti sigurnost kakvu poznajemo. Ali kao što je Malwarebytes također primijetio, ChatGPT i slične alate mogu koristiti i stručnjaci za kibernetičku sigurnost; na primjer za traženje grešaka u softveru ili "sumnjivih obrazaca" u mrežnim aktivnostima.
Podizanje svijesti je ključno
Za što će ChatGPT biti sposoban za pet ili deset godina? Možemo samo nagađati, ali ono što znamo sigurno jest da umjetna inteligencija ne ide nikamo.
Kako se budu pojavljivali još napredniji chatbotovi, cijele industrije će se morati prilagoditi i naučiti kako ih koristiti odgovorno. To uključuje industriju kibernetičke sigurnosti koju već oblikuje AI. Podizanje svijesti o sigurnosnim rizicima povezanim s umjetnom inteligencijom ključno je i pomoći će osigurati da se te tehnologije razvijaju i koriste na etičan način.