Čitatelji poput vas podržavaju MUO. Kada kupite putem poveznica na našoj stranici, možemo zaraditi partnersku proviziju. Čitaj više.

Lansiranje OpenAI-jevog ChatGPT-a popraćeno je uzbuđenjem kakvom se može mjeriti tek nekolicina tehnoloških proizvoda iz povijesti interneta.

Iako su mnogi ljudi oduševljeni ovom novom uslugom umjetne inteligencije, uzbuđenje koje su drugi osjetili od tada se pretvorilo u brige, pa čak i strahove. Studenti već varaju s njim, a mnogi profesori otkrivaju eseje i zadatke koje je napisao AI chatbot. Stručnjaci za sigurnost izražavaju svoju zabrinutost da ga prevaranti i akteri prijetnji koriste za pisanje phishing e-pošte i stvaranje zlonamjernog softvera.

Dakle, uz sve te brige, gubi li OpenAI kontrolu nad jednim od najmoćnijih AI chatbota trenutno na mreži? Hajde da vidimo.

Razumijevanje načina rada ChatGPT-a

Prije nego što dobijemo jasnu sliku o tome koliko OpenAI gubi kontrolu nad ChatGPT-om, prvo moramo razumjeti kako radi ChatGPT.

Ukratko, ChatGPT se obučava pomoću goleme zbirke podataka iz različitih kutova interneta. Podaci o obuci ChatGPT-a uključuju enciklopedije, znanstvene radove, internetske forume, web stranice s vijestima i spremišta znanja poput Wikipedije. U osnovi, hrani se ogromnom količinom podataka dostupnih na World Wide Webu.

instagram viewer

Dok pretražuje internetom, prikuplja znanstvena saznanja, zdravstvene savjete, vjerske tekstove i sve dobre podatke kojih se možete sjetiti. Ali također prosijava gomilu negativnih informacija: psovke, NSFW i sadržaj za odrasle, informacije o tome kako napraviti zlonamjerni softver i gomilu loših stvari koje možete pronaći na internetu.

Ne postoji siguran način da se osigura da ChatGPT uči samo iz pozitivnih informacija dok odbacuje one loše. Tehnički, to je nepraktično učiniti u velikoj mjeri, posebno za AI kao što je ChatGPT koji treba trenirati na toliko podataka. Nadalje, neke informacije mogu se koristiti i za dobre i za zle svrhe, a ChatGPT ne bi mogao saznati njihovu namjeru osim ako se ne stavi u širi kontekst.

Dakle, od samog početka imate AI sposobnu za "dobro i zlo". Tada je odgovornost OpenAI-a osigurati da se "zla" strana ChatGPT-a ne iskorištava za neetičke dobitke. Pitanje je; čini li OpenAI dovoljno kako bi ChatGPT bio što etičniji? Ili je OpenAI izgubio kontrolu nad ChatGPT-om?

Je li ChatGPT previše moćan za vlastito dobro?

U prvim danima ChatGPT-a, mogli ste natjerati chatbota da kreira vodiče za izradu bombi ako ste lijepo zatražili. Upute o izradi zlonamjernog softvera ili pisanju savršene prijevarne e-pošte također su bile na slici.

Međutim, nakon što je OpenAI shvatio ove etičke probleme, tvrtka se trudila donijeti pravila kako bi spriječila chatbot u generiranju odgovora koji promoviraju nezakonite, kontroverzne ili neetične radnje. Na primjer, najnovija verzija ChatGPT-a odbit će odgovoriti na bilo koji izravni upit o izradi bombe ili kako varati na ispitu.

Nažalost, OpenAI može pružiti samo pomoćno rješenje problema. Umjesto izgradnje krutih kontrola na GPT-3 sloju kako bi se spriječilo negativno iskorištavanje ChatGPT-a, čini se da je OpenAI usredotočen na treniranje chatbota da izgleda etično. Ovaj pristup ne oduzima mogućnost ChatGPT-a da odgovori na pitanja o, recimo, varanju na ispitima—on jednostavno uči chatbota da "odbije odgovoriti".

Dakle, ako bilo tko drugačije formulira svoje upite usvajanjem ChatGPT trikova za bjekstvo iz zatvora, zaobilaženje ovih ograničenja flastera je neugodno jednostavno. U slučaju da niste upoznati s konceptom, ChatGPT jailbreaks su pažljivo formulirani upiti koji natjeraju ChatGPT da zanemari vlastita pravila.

U nastavku pogledajte nekoliko primjera. Ako pitate ChatGPT kako varati na ispitima, neće dati nikakav koristan odgovor.

Ali ako razbijete ChatGPT pomoću posebno izrađenih upita, dat će vam savjete o varanju na ispitu pomoću skrivenih bilješki.

Evo još jednog primjera: postavili smo vanilla ChatGPT-u neetičko pitanje, a zaštitne mjere OpenAI-ja spriječile su ga da odgovori.

Ali kada smo pitali našu jailbreakiranu instancu AI chatbota, dobili smo neke odgovore u stilu serijskih ubojica.

Čak je napisao klasičnu prijevaru putem e-pošte s nigerijskim princem kada su ga pitali.

Jailbreaking gotovo potpuno poništava sve zaštitne mjere koje je OpenAI postavio, naglašavajući da tvrtka možda nema pouzdan način da svoj AI chatbot drži pod kontrolom.

Nismo uključili naše jailbreak upite u naše primjere kako bismo izbjegli neetičke postupke.

Što budućnost nosi za ChatGPT?

U idealnom slučaju, OpenAI želi zatvoriti što više etičkih rupa u zakonu kako bi spriječio Da ChatGPT ne postane prijetnja kibernetičkoj sigurnosti. Međutim, uz svaku zaštitu koju koristi, ChatGPT ima tendenciju da postane malo manje vrijedan. To je dilema.

Na primjer, mjere zaštite protiv opisivanja nasilnih radnji mogle bi umanjiti sposobnost ChatGPT-a da napiše roman koji uključuje mjesto zločina. Kako OpenAI pojačava sigurnosne mjere, neizbježno žrtvuje dijelove svojih sposobnosti u procesu. To je razlog zašto je ChatGPT pretrpio značajan pad u funkcionalnosti otkad je OpenAI ponovno zauzeo strožu moderaciju.

Ali koliko će još ChatGPT sposobnosti OpenAI biti spreman žrtvovati da bi chatbot učinio sigurnijim? Sve je to uredno povezano s dugogodišnjim uvjerenjem unutar AI zajednice - velike jezične modele poput ChatGPT-a notorno je teško kontrolirati, čak i od strane njihovih kreatora.

Može li OpenAI staviti ChatGPT pod kontrolu?

Za sada se čini da OpenAI nema jasno rješenje za izbjegavanje neetičke upotrebe svog alata. Osigurati da se ChatGPT koristi etički je igra mačke i miša. Dok OpenAI otkriva načine na koje ljudi koriste da igraju sustav, njegovi korisnici također neprestano petljanje i ispitivanje sustava kako bi se otkrili kreativni novi načini natjerati ChatGPT da radi ono što ne bi trebao napraviti.

Dakle, hoće li OpenAI pronaći pouzdano dugoročno rješenje za ovaj problem? Samo će vrijeme pokazati.