AI chatbotovi mogu halucinirati, dajući samouvjereno netočne odgovore - što hakeri mogu iskoristiti. Evo kako hakeri koriste halucinacije kao oružje.

AI-ji velikih jezičnih modela su nesavršeni i ponekad generiraju lažne informacije. Ti slučajevi, koji se nazivaju halucinacije, mogu predstavljati kibernetičku prijetnju tvrtkama i pojedinačnim entuzijastima umjetne inteligencije.

Srećom, možete povećati obranu od AI halucinacija s povećanom sviješću i zdravim pogađanjem.

Zašto umjetna inteligencija halucinira?

Ne postoji konsenzus o tome zašto AI modeli haluciniraju, iako postoji nekoliko vjerojatnih nagađanja.

AI se obučava na temelju golemih skupova podataka, koji često sadrže nedostatke kao što su praznine u razmišljanju, varijacije u istaknutosti sadržaja ili štetne pristranosti. Bilo kakva obuka iz ovih nepotpunih ili neadekvatnih skupova podataka mogla bi biti korijen halucinacija, čak i ako su kasnija ponavljanja skupa podataka dobila nadzor od strane znanstvenika podataka.

S vremenom znanstvenici koji se bave podacima mogu učiniti informacije točnijima i unijeti dodatna znanja kako bi popunili upražnjena radna mjesta i smanjili potencijal halucinacije. Nadzornici bi mogli pogrešno označiti podatke. Programski kod može sadržavati pogreške. Ispravljanje ovih stavki je ključno jer AI modeli napreduju na temelju algoritama strojnog učenja.

instagram viewer

Ovi algoritmi koriste podatke za donošenje odluka. Proširenje ovoga je neuronska mreža umjetne inteligencije, koja stvara nove odluke od iskustva strojnog učenja do nalikuju originalnosti ljudskih umova točnije. Ove mreže sadrže transformatore koji analiziraju odnose između udaljenih podatkovnih točaka. Kad se transformatori pokvare, mogu se pojaviti halucinacije.

Kako AI halucinacije pružaju mogućnosti hakerima

Nažalost, nije opće poznato da umjetna inteligencija halucinira, a umjetna inteligencija će zvučati samouvjereno čak i kada je potpuno pogrešna. Sve to pridonosi tome da korisnici postanu samozadovoljniji i vjeruju AI-ju, a akteri prijetnji oslanjaju se na ovakvo ponašanje korisnika kako bi ih naveli na preuzimanje ili pokretanje njihovih napada.

Na primjer, AI model može halucinirati biblioteku lažnog koda i preporučiti korisnicima da preuzmu tu biblioteku. Vrlo je vjerojatno da će model nastaviti preporučivati ​​ovu istu haluciniranu biblioteku mnogim korisnicima koji postave slično pitanje. Ako hakeri otkriju ovu halucinaciju, mogu stvoriti pravu verziju zamišljene knjižnice—ali ispunjenu opasnim kodom i zlonamjernim softverom. Sada, kada AI nastavi preporučivati ​​biblioteku kodova, nesvjesni će korisnici preuzeti hakerski kod.

Prijenos štetnog koda i programa iskorištavanjem halucinacija umjetne inteligencije ne iznenađuje sljedeći korak za aktere prijetnji. Hakeri ne stvaraju nužno bezbrojne nove cyber prijetnje - oni samo traže nove načine da ih isporuče bez sumnje. AI halucinacije plijene istu ljudsku naivnost klikanje na veze e-pošte ovisi o (zbog čega biste trebali koristite alate za provjeru veza za provjeru URL-ova).

Hakeri bi to također mogli podići na višu razinu. Ako tražite pomoć kod kodiranja i preuzmete lažni, zlonamjerni kod, akter prijetnje bi također mogao učiniti kod stvarno funkcionalnim, sa štetnim programom koji radi u pozadini. Samo zato što djeluje onako kako ste očekivali ne znači da nije opasno.

Nedostatak obrazovanja može vas potaknuti da preuzmete preporuke generirane umjetnom inteligencijom zbog ponašanja online autopilota. Svaki je sektor pod kulturnim pritiskom da usvoji umjetnu inteligenciju u svojoj poslovnoj praksi. Bezbrojne organizacije i industrije koje su udaljene od tehnologije igraju se s AI alatima s malo iskustva i još oskudnijom kibersigurnošću jednostavno kako bi ostale konkurentne.

Kako se zaštititi od halucinacija umjetne inteligencije s oružjem

Napredak je na pomolu. Stvaranje zlonamjernog softvera pomoću generativne umjetne inteligencije bilo je jednostavno prije nego što su tvrtke prilagodile skupove podataka i odredbe i uvjete kako bi spriječile neetičko stvaranje. S obzirom na društvene, tehničke i osobne slabosti koje možete imati protiv opasnih AI halucinacija, koji su neki od načina da ostanete sigurni?

Svatko u industriji može raditi na usavršavanju tehnologije neuronske mreže i verifikaciji knjižnice. Mora postojati kontrola i ravnoteža prije nego što odgovori pogode krajnje korisnike. Unatoč tome što je to neophodan napredak u industriji, vi također imate ulogu u zaštiti sebe i drugih od generativnih prijetnji umjetne inteligencije.

Prosječni korisnici može vježbati uočavanje AI halucinacija ovim strategijama:

  • Pronalaženje pravopisnih i gramatičkih pogrešaka.
  • Uočiti kada kontekst upita nije u skladu s kontekstom odgovora.
  • Priznavanje kada se slike temeljene na računalnom vidu ne poklapaju s načinom na koji bi ljudske oči vidjele koncept.

Uvijek budite oprezni kada preuzimate sadržaj s interneta, čak i kada to preporučuje AI. Ako AI preporučuje preuzimanje koda, nemojte to učiniti naslijepo; provjerite recenzije kako biste bili sigurni da je kôd legitiman i vidite možete li pronaći informacije o kreatoru.

Najbolji otpor protiv napada AI halucinacijama je obrazovanje. Razgovarati o svojim iskustvima i čitati kako su drugi potaknuli zlonamjerne halucinacije, bilo slučajno ili namjerno testiranje, neprocjenjivo je u navigaciji AI u budućnosti.

Poboljšanje kibernetičke sigurnosti umjetne inteligencije

Morate biti oprezni što tražite kada razgovarate s umjetnom inteligencijom. Ograničite mogućnost opasnih ishoda tako što ćete biti što konkretniji i preispitivati ​​sve što se pojavi na ekranu. Testirajte kod u sigurnim okruženjima i provjerite druge naizgled pouzdane informacije. Osim toga, surađujući s drugima, razgovarajući o svojim iskustvima i pojednostavljujući žargon o umjetnoj inteligenciji halucinacije i kibersigurnosne prijetnje mogu pomoći masama da budu opreznije i otpornije na hakeri.