Vaš omiljeni generativni AI chatbot čini se benignim, ali uz odgovarajuću stručnost, mogao bi se otkriti delikatne informacije o vama.

Ključni zahvati

  • Napadi inverzijom modela neuronske mreže koriste AI chatbotove za otkrivanje i rekonstrukciju osobnih podataka iz digitalnih otisaka.
  • Hakeri stvaraju modele inverzije koji predviđaju ulaze na temelju izlaza neuronske mreže, otkrivajući osjetljive podatke.
  • Tehnike kao što su diferencijalna privatnost, računanje s više strana i udruženo učenje mogu pomoći u zaštiti od napada inverzijom, ali to je stalna borba. Korisnici bi trebali biti selektivni u dijeljenju, ažurirati softver i biti oprezni pri davanju osobnih podataka.

Zamislite da ste u restoranu i upravo ste probali najbolji kolač koji ste ikada jeli. Vrativši se kući, odlučni ste ponovno stvoriti ovo kulinarsko remek-djelo. Umjesto da tražite recept, oslanjate se na svoje okusne pupoljke i znanje da dekonstruirate desert i napravite svoj.

Sada, što ako bi netko to mogao učiniti s vašim osobnim podacima? Netko kuša digitalni otisak koji ostavljate za sobom i rekonstruira vaše privatne detalje.

instagram viewer

To je bit napada inverzijom modela neuronske mreže, tehnike koja bi AI chatbota mogla pretvoriti u alat za kibernetičko istraživanje.

Razumijevanje napada inverzijom modela neuronske mreže

A živčana mreža je "mozak" koji stoji iza moderne umjetne inteligencije (AI). Oni su odgovorni za impresivnu funkcionalnost iza prepoznavanja glasa, humaniziranih chatbota i generativne umjetne inteligencije.

Neuronske mreže su u biti niz algoritama dizajniranih za prepoznavanje obrazaca, razmišljanje, pa čak i učenje poput ljudskog mozga. Čine to u opsegu i brzini koji daleko nadilaze naše organske sposobnosti.

AI-jeva knjiga tajni

Baš kao i naš ljudski mozak, neuronske mreže mogu skrivati ​​tajne. Ove tajne su podaci koje su im dostavili korisnici. U napadu inverzijom modela, haker koristi izlazne podatke neuronske mreže (poput odgovora chatbota) da obrnuti inženjering unose (informacije koje ste dali).

Kako bi izvršili napad, hakeri koriste vlastiti model strojnog učenja koji se naziva "model inverzije". Ovaj model je dizajniran da bude svojevrsna zrcalna slika, obučen ne na izvornim podacima, već na rezultatima koje generira cilj.

Svrha ovog modela inverzije je predvidjeti unose - izvorne, često osjetljive podatke koje ste unijeli u chatbot.

Izrada modela inverzije

Stvaranje inverzije može se smatrati rekonstrukcijom isjeckanog dokumenta. Ali umjesto spajanja traka papira, spaja se priča ispričana odgovorima ciljanog modela.

Inverzijski model uči jezik izlaza neuronske mreže. Traži izdajničke znakove koji s vremenom otkrivaju prirodu unosa. Sa svakim novim podatkom i svakim odgovorom koji analizira, bolje predviđa informacije koje pružate.

Ovaj proces je stalni ciklus hipoteza i testiranja. Uz dovoljno izlaznih podataka, inverzijski model može točno zaključiti vaš detaljan profil, čak i iz naizgled najbezazlenijih podataka.

Proces inverzijskog modela igra je povezivanja točaka. Svaki dio podataka koji je procurio kroz interakciju omogućuje modelu da formira profil, a s dovoljno vremena profil koji formira neočekivano je detaljan.

Na kraju se otkrivaju uvidi u aktivnosti, preferencije i identitet korisnika. Uvidi koji nisu trebali biti objavljeni ili objavljeni.

Što to čini mogućim?

Unutar neuronskih mreža, svaki upit i odgovor je podatkovna točka. Vješti napadači upotrebljavaju napredne statističke metode za analizu tih podatkovnih točaka i traže korelacije i obrasce neprimjetne ljudskom razumijevanju.

Tehnike kao što je regresijska analiza (ispitivanje odnosa između dviju varijabli) za predviđanje vrijednosti ulaza na temelju rezultata koje primate.

Hakeri koriste algoritme strojnog učenja u svojim modelima inverzije kako bi poboljšali svoja predviđanja. Oni uzimaju izlazne podatke iz chatbota i ubacuju ih u svoje algoritme kako bi ih obučili za aproksimaciju inverzne funkcije ciljane neuronske mreže.

Pojednostavljeno rečeno, "inverzna funkcija" odnosi se na to kako hakeri preokreću protok podataka od izlaza do ulaza. Cilj napadača je uvježbati svoje modele inverzije da obavljaju suprotan zadatak od izvorne neuronske mreže.

U biti, ovo je način na koji oni stvaraju model koji, s obzirom na sam izlaz, pokušava izračunati koliki je ulaz morao biti.

Kako se inverzijski napadi mogu upotrijebiti protiv vas

Zamislite da koristite popularan online alat za procjenu zdravlja. Upisujete svoje simptome, prethodna stanja, prehrambene navike, pa čak i korištenje droga kako biste dobili uvid u svoje dobro stanje.

to je osjetljive i osobne podatke.

S inverzijskim napadom usmjerenim na sustav umjetne inteligencije koji koristite, haker bi mogao prihvatiti općenite savjete koje vam chatbot daje i upotrijebiti ih za zaključivanje vaše privatne povijesti bolesti. Na primjer, odgovor chatbota može biti nešto poput ovoga:

Antinuklearna antitijela (ANA) mogu se koristiti za indikaciju prisutnosti autoimunih bolesti kao što je lupus.

Inverzijski model može predvidjeti da je ciljni korisnik postavljao pitanja u vezi s autoimunim stanjem. Uz više informacija i više odgovora, hakeri mogu zaključiti da meta ima ozbiljno zdravstveno stanje. Iznenada, koristan online alat postaje digitalna špijunka u vaše osobno zdravlje.

Što se može učiniti u vezi s inverzijskim napadima?

Možemo li izgraditi utvrdu oko naših osobnih podataka? Pa komplicirano je. Programeri neuronskih mreža mogu otežati izvođenje napada inverzijskim modelom dodavanjem slojeva sigurnosti i prikrivanjem načina na koji oni funkcioniraju. Evo nekoliko primjera tehnika korištenih za zaštitu korisnika:

  • Diferencijalna privatnost: Ovo osigurava da su AI izlazi dovoljno "bučni" da maskiraju pojedinačne podatkovne točke. Pomalo je poput šaputanja u gomili—vaše se riječi gube u zajedničkom čavrljanju onih oko vas.
  • Obračun više strana: Ova tehnika je poput tima koji radi na povjerljivom projektu dijeleći samo rezultate svojih pojedinačnih zadataka, a ne osjetljive detalje. Omogućuje višestrukim sustavima da zajedno obrađuju podatke bez izlaganja pojedinačnih korisničkih podataka mreži—ili jedni drugima.
  • Federativno učenje: Uključuje obuku umjetne inteligencije na više uređaja, dok se podaci pojedinačnih korisnika održavaju lokalnim. To je pomalo kao zbor koji pjeva zajedno; možete čuti svaki glas, ali niti jedan glas ne može biti izoliran ili identificiran.

Iako su ta rješenja u velikoj mjeri učinkovita, zaštita od napada inverzijom je igra mačke i miša. Kako se obrane poboljšavaju, tako rastu i tehnike za njihovo zaobilaženje. Odgovornost, dakle, pada na tvrtke i programere koji prikupljaju i pohranjuju naše podatke, ali postoje načini na koje se možete zaštititi.

Kako se zaštititi od inverzijskih napada

Autor slike: Mike MacKenzie/Flickr

Relativno govoreći, neuronske mreže i AI tehnologije još su u povojima. Sve dok sustavi ne budu sigurni, na korisniku je da bude prva linija obrane kada štiteći vaše podatke.

Evo nekoliko savjeta o tome kako smanjiti rizik da postanete žrtva inverzijskog napada:

  • Budite selektivni dijelitelj: Tretirajte svoje osobne podatke kao tajni obiteljski recept. Budite selektivni u pogledu toga s kim ćete to dijeliti, posebno kada ispunjavate obrasce online i komunicirate s chatbotovima. Preispitajte nužnost svakog podatka koji se od vas traži. Ako ne želite podijeliti informacije sa strancem, nemojte ih dijeliti s chatbotom.
  • Održavajte softver ažuriranim: Ažuriranja front-end softvera, preglednika, pa čak i vašeg operativnog sustava jesu dizajniran da vas zaštiti. Dok su programeri zauzeti zaštitom neuronskih mreža, također možete smanjiti rizik od presretanja podataka redovitom primjenom zakrpa i ažuriranja.
  • Čuvajte osobne podatke osobnima: Svaki put kada aplikacija ili chatbot zatraži osobne podatke, zastanite i razmislite o namjeri. Ako se tražene informacije čine nevažnima za pruženu uslugu, vjerojatno i jesu.

Ne biste novom poznaniku dali osjetljive informacije poput zdravlja, financija ili identiteta samo zato što su rekli da im to trebaju. Slično tome, procijenite koje su informacije doista potrebne za funkcioniranje aplikacije i odjavite se od daljnjeg dijeljenja.

Zaštita naših osobnih podataka u doba umjetne inteligencije

Naši osobni podaci naša su najvrjednija imovina. Njegovo čuvanje zahtijeva oprez, kako u načinu na koji odlučujemo dijeliti informacije tako iu razvoju sigurnosnih mjera za usluge koje koristimo.

Svijest o tim prijetnjama i poduzimanje koraka kao što su oni navedeni u ovom članku doprinose jačoj obrani od ovih naizgled nevidljivih vektora napada.

Posvetimo se budućnosti u kojoj naši privatni podaci ostaju upravo to: privatni.