Chatbotovi i njima slični možda se čine kao dobra zabava, ali korisni su i hakerima. Evo zašto svi moramo znati koliki je sigurnosni rizik umjetne inteligencije.

AI je značajno napredovao u posljednjih nekoliko godina. Sofisticirani jezični modeli mogu sastaviti cjelovite romane, kodirati osnovne web stranice i analizirati matematičke probleme.

Iako impresivan, generativni AI predstavlja i sigurnosne rizike. Neki ljudi samo koriste chatbotove za varanje na ispitima, ali drugi ih izravno iskorištavaju za kibernetičke zločine. Evo osam razloga zašto će ti problemi i dalje postojati, ne samo bez obzira na Napredak umjetne inteligencije, ali jer od njih također.

1. Open-Source AI Chatbotovi otkrivaju pozadinske kodove

Više AI tvrtki nudi sustave otvorenog koda. Oni otvoreno dijele svoje jezične modele umjesto da ih drže zatvorenima ili vlasničkima. Uzmimo Metu kao primjer. Za razliku od Googlea, Microsofta i OpenAI-ja, omogućuje milijunima korisnika pristup njegovom jezičnom modelu, LlaMA.

Iako kodovi otvorenog koda mogu unaprijediti AI, to je također riskantno.

instagram viewer
OpenAI već ima problema s kontrolom ChatGPT-a, njegov vlasnički chatbot, pa zamislite što bi prevaranti mogli učiniti s besplatnim softverom. Oni imaju potpunu kontrolu nad tim projektima.

Čak i ako Meta iznenada povuče svoj jezični model, deseci drugih AI laboratorija već su objavili svoje kodove. Pogledajmo HuggingChat. Budući da se njegov programer HuggingFace ponosi transparentnošću, prikazuje svoje skupove podataka, jezični model i prethodne verzije.

2. Jailbreaking Upute Trick LLMs

AI je inherentno amoralan. Ne razumije ispravno i pogrešno - čak i napredni sustavi slijede upute za obuku, smjernice i skupove podataka. Oni samo prepoznaju obrasce.

Za borbu protiv nedopuštenih aktivnosti, programeri kontroliraju funkcionalnost i ograničenja postavljanjem ograničenja. AI sustavi još uvijek pristupaju štetnim informacijama. Ali sigurnosne smjernice sprječavaju ih da ih dijele s korisnicima.

Pogledajmo ChatGPT. Iako odgovara na općenita pitanja o trojancima, neće raspravljati o procesu njihova razvoja.

Ipak, ograničenja nisu sigurna. Korisnici zaobilaze ograničenja preformuliranjem upita, korištenjem zbunjujućeg jezika i sastavljanjem eksplicitno detaljnih uputa.

Pročitajte u nastavku ChatGPT upit za bjekstvo iz zatvora. Navodi ChatGPT da koristi nepristojan jezik i daje neutemeljena predviđanja—oba djela krše smjernice OpenAI-ja.

Evo ChatGPT-a s podebljanom, ali lažnom izjavom.

3. AI ugrožava sigurnost radi svestranosti

AI programeri daju prednost svestranosti nad sigurnošću. Oni troše svoje resurse na platforme za obuku kako bi izvršili raznolikiji raspon zadataka, u konačnici smanjujući ograničenja. Uostalom, tržište pozdravlja funkcionalne chatbotove.

neka usporedite ChatGPT i Bing Chat, na primjer. Dok Bing ima sofisticiraniji jezični model koji izvlači podatke u stvarnom vremenu, korisnici i dalje hrle na svestraniju opciju, ChatGPT. Bingova stroga ograničenja zabranjuju mnoge zadatke. Alternativno, ChatGPT ima fleksibilnu platformu koja proizvodi vrlo različite rezultate ovisno o vašim upitima

Evo ChatGPT igranja uloga kao izmišljenog lika.

A evo Bing Chata koji odbija glumiti "nemoralnu" osobu.

Kodovi otvorenog koda omogućuju startupima da se pridruže AI utrci. Integriraju ih u svoje aplikacije umjesto da grade jezične modele od nule, štedeći goleme resurse. Čak i nezavisni koderi eksperimentiraju s kodovima otvorenog koda.

Opet, nevlasnički softver pomaže unapređivanju umjetne inteligencije, ali masovno puštanje u promet slabo obučenih, ali sofisticiranih sustava čini više štete nego koristi. Lopovi će brzo zloupotrijebiti ranjivosti. Mogli bi čak istrenirati nesigurne AI alate za obavljanje nedopuštenih aktivnosti.

Unatoč tim rizicima, tehnološke tvrtke nastavit će objavljivati ​​nestabilne beta verzije platformi vođenih umjetnom inteligencijom. AI utrka nagrađuje brzinu. Vjerojatno će kasnije riješiti greške nego odgoditi lansiranje novih proizvoda.

5. Generativna umjetna inteligencija ima male prepreke za ulazak

Alati umjetne inteligencije smanjuju prepreke ulasku u kriminal. Cyberkriminalci sastavljaju neželjene poruke e-pošte, pišu zlonamjerni kod i izrađuju veze za krađu identiteta iskorištavajući ih. Ne trebaju čak ni tehničko iskustvo. Budući da umjetna inteligencija već pristupa golemim skupovima podataka, korisnici je samo moraju prevariti da proizvede štetne, opasne informacije.

OpenAI nikad nije dizajnirao ChatGPT za nedopuštene aktivnosti. Ima čak i smjernice protiv njih. Još prevaranti su gotovo odmah dobili zlonamjerni softver za kodiranje ChatGPT-a i pisanje phishing e-pošte.

Dok je OpenAI brzo riješio problem, naglašava važnost regulacije sustava i upravljanja rizikom. AI sazrijeva brže nego što je itko očekivao. Čak se i tehnološki čelnici brinu da bi ova superinteligentna tehnologija mogla uzrokovati golemu štetu u pogrešnim rukama.

6. AI se i dalje razvija

AI se još uvijek razvija. Dok Upotreba umjetne inteligencije u kibernetici datira iz 1940, moderni sustavi strojnog učenja i jezični modeli tek su se nedavno pojavili. Ne možete ih usporediti s prvim implementacijama AI-ja. Čak i relativno napredni alati poput Siri i Alexa blijede u usporedbi s chatbotovima koje pokreće LLM.

Iako mogu biti inovativne, eksperimentalne značajke stvaraju i nove probleme. Nesreće visokog profila s tehnologijama strojnog učenja u rasponu od manjkavih Google SERP-ova do pristranih chatbota koji pljuju rasne uvrede.

Naravno, programeri mogu riješiti te probleme. Imajte na umu da prevaranti neće oklijevati iskoristiti čak ni naizgled bezopasne bugove - neke štete su nepovratne. Stoga budite oprezni kada istražujete nove platforme.

7. Mnogi još ne razumiju AI

Dok šira javnost ima pristup sofisticiranim jezičnim modelima i sustavima, samo nekolicina zna kako oni funkcioniraju. Ljudi bi trebali prestati tretirati AI kao igračku. Isti chatbotovi koji generiraju meme i odgovaraju na trivijalnosti također masovno kodiraju viruse.

Nažalost, centralizirana obuka AI-a je nerealna. Globalni tehnološki lideri usredotočeni su na izdavanje sustava vođenih umjetnom inteligencijom, a ne besplatnih obrazovnih resursa. Kao rezultat toga, korisnici dobivaju pristup robusnim, moćnim alatima koje jedva razumiju. Javnost ne može držati korak s AI utrkom.

Uzmimo ChatGPT kao primjer. Cyberkriminalci zlorabe njegovu popularnost prevarom žrtava spyware prerušen u ChatGPT aplikacije. Nijedna od ovih opcija ne dolazi iz OpenAI-ja.

8. Black-Hat hakeri mogu dobiti više od bijelih hakera

Black-hat hakeri obično imaju više dobiti nego etički hakeri. Da, testiranje olovke za globalne tehnološke lidere dobro se plaća, ali samo postotak stručnjaka za kibersigurnost dobiva te poslove. Većina radi samostalni posao na internetu. Platforme poput HackerOne i Bugcrowd platiti nekoliko stotina dolara za uobičajene greške.

Alternativno, prevaranti zarađuju desetke tisuća iskorištavajući nesigurnost. Mogli bi ucjenjivati ​​tvrtke odavanjem povjerljivih podataka ili počiniti krađu ID-a s ukradenim Podaci koji otkrivaju identitet (PII).

Svaka institucija, mala ili velika, mora pravilno implementirati sustave umjetne inteligencije. Suprotno uvriježenom mišljenju, hakeri idu dalje od tehnoloških startupa i malih i srednjih poduzeća. Neki od najviše povijesne povrede podataka u proteklom desetljeću uključuju Facebook, Yahoo!, pa čak i vladu SAD-a.

Zaštitite se od sigurnosnih rizika AI

Uzimajući u obzir ove točke, trebate li u potpunosti izbjegavati AI? Naravno da ne. AI je inherentno amoralan; svi sigurnosni rizici proizlaze iz ljudi koji ih zapravo koriste. I oni će pronaći načine za iskorištavanje AI sustava bez obzira na to koliko daleko se razvijaju.

Umjesto da se bojite prijetnji kibernetičkoj sigurnosti koje dolaze s umjetnom inteligencijom, shvatite kako ih možete spriječiti. Ne brinite: jednostavne sigurnosne mjere idu daleko. Ostanite oprezni prema sumnjivim AI aplikacijama, izbjegavajte čudne hiperveze i gledajte AI sadržaj sa skepticizmom već se borite protiv nekoliko rizika.