ChatGPT jailbreaks omogućuje vam otključavanje ograničenja chatbota. Ali što su oni točno? I jesu li dobre ili loše?

ChatGPT je nevjerojatno moćan i višestruk alat. Ali koliko god AI chatbot bio sila za dobro, može se koristiti i za zle svrhe. Dakle, kako bi obuzdao neetičko korištenje ChatGPT-a, OpenAI je nametnuo ograničenja na ono što korisnici mogu učiniti s njim.

Međutim, kako ljudi vole pomicati granice i ograničenja, korisnici ChatGPT-a pronašli su načine kako zaobići ta ograničenja i dobiti neograničenu kontrolu nad AI chatbotom putem bjekstva iz zatvora.

Ali što su točno ChatGPT jailbreak-ovi i što možete učiniti s njima?

Što su ChatGPT bjekstva iz zatvora?

ChatGPT jailbreak je svaki posebno izrađen ChatGPT upit kako bi AI chatbot zaobišao svoja pravila i ograničenja.

Nadahnut koncept iPhone jailbreakinga, koji korisnicima iPhonea omogućuje zaobilaženje iOS ograničenja, ChatGPT jailbreaking relativno je nov koncept potaknut privlačnošću "raditi stvari koje ne smijete raditi" s ChatGPT-om. I budimo iskreni, ideja digitalne pobune privlačna je mnogim ljudima.

instagram viewer

Evo u čemu je stvar. Sigurnost je velika tema kada je u pitanju umjetna inteligencija. To je osobito slučaj s dolaskom nove ere chatbota kao što su ChatGPT, Bing Chat i Bard AI. Ključna briga u vezi sa sigurnošću umjetne inteligencije je osigurati da chatbotovi kao što je ChatGPT ne proizvode nezakonit, potencijalno štetan ili neetičan sadržaj.

Sa svoje strane, OpenAI, tvrtka koja stoji iza ChatGPT-a, čini sve što može kako bi osigurala sigurnu upotrebu ChatGPT-a. Na primjer, ChatGPT će prema zadanim postavkama odbiti kreirati NSFW sadržaj, reći štetne stvari o etničkoj pripadnosti ili vas naučiti potencijalno štetnim vještinama.

Ali s ChatGPT upitima, vrag je u detaljima. Iako ChatGPT-u nije dopušteno raditi te stvari, to ne znači da to ne može činiti. Način rada velikih jezičnih modela poput GPT-a otežavaju odlučivanje što chatbot može, a što ne.

Dakle, kako je OpenAI ovo riješio? Dopuštajući ChatGPT-u zadržava svoje sposobnosti da radi sve što je moguće, a zatim mu daje upute koje može učiniti.

Dakle, dok OpenAI govori ChatGPT-u, "Hej, gledaj, ne bi trebao ovo raditi." Jailbreaks su upute koje chatbotu govore: "Hej, vidi, zaboravi što ti je OpenAI rekao o sigurnosti. Pokušajmo ovu nasumično opasnu stvar."

Što OpenAI kaže o ChatGPT bijegovima iz zatvora?

Lakoća s kojom ste mogli zaobići ograničenja na najranijoj iteraciji ChatGPT-a sugerira da OpenAI možda nije predvidio brzo i rašireno prihvaćanje jailbreakinga od strane svojih korisnika. Zapravo je otvoreno pitanje je li tvrtka predvidjela pojavu jailbreakinga ili ne.

Čak i nakon nekoliko iteracija ChatGPT-a s poboljšanom otpornošću na jailbreaking, još uvijek je popularno za korisnike ChatGPT-a da ga pokušaju napraviti. Dakle, što OpenAI kaže o subverzivnoj umjetnosti ChatGPT jailbreakinga?

Pa, čini se da OpenAI zauzima odobravajući stav - niti eksplicitno potiče niti strogo zabranjuje tu praksu. Dok je u YouTube intervjuu raspravljao o bjekstvima iz zatvora ChatGPT-a, Sam Altman, izvršni direktor OpenAI-ja, objasnio je da tvrtka želi da korisnici zadrže značajnu kontrolu nad ChatGPT-om.

Izvršni direktor je dalje objasnio da je cilj OpenAI-ja osigurati korisnicima da natjeraju model da se ponaša kako god žele. Prema Altmanu:

Želimo da korisnici imaju puno kontrole i da natjeramo model da se ponaša onako kako oni žele unutar nekih vrlo širokih granica. I mislim da je cijeli razlog za bijeg iz zatvora sada taj što još nismo smislili kako to dati ljudima...

Što to znači? To znači da će vam OpenAI omogućiti jailbreak ChatGPT-a ako s njim ne radite opasne stvari.

Za i protiv ChatGPT bjekstva iz zatvora

ChatGPT bjekstvo iz zatvora nije lako napraviti. Naravno, možete otići na internet i kopirati-zalijepiti gotove, ali postoji dobra šansa da će jailbreak zakrpati OpenAI ubrzo nakon što izađe u javnost.

Zakrpe su još puno brže ako su opasne, poput zloglasnog DAN jailbreaka. Pa zašto ljudi uopće prolaze kroz stres smišljanja bjekstava iz zatvora? Je li to samo zbog uzbuđenja ili ima praktične koristi od toga? Što bi moglo poći po zlu ako se odlučite koristiti ChatGPT jailbreak? Evo prednosti i mana jailbreakinga ChatGPT-a.

Prednosti korištenja ChatGPT bjekstava iz zatvora

Iako ne možemo isključiti jednostavno uzbuđenje činjenja zabranjenog, ChatGPT jailbreaks ima mnoge prednosti. Zbog vrlo strogih ograničenja koja je OpenAI postavio na chatbot, ChatGPT se ponekad može činiti neumjerenim.

Recimo da koristite ChatGPT za pisanje knjige ili filmskog scenarija. Ako postoji scena u vašem scenariju ili knjizi koja bi opisala nešto poput scene borbe, možda intimnu razmjenu emocija ili reći nešto poput oružane pljačke, ChatGPT bi mogao izravno odbiti pomoći s tim.

U ovom slučaju, očito niste zainteresirani za nanošenje štete; samo želite zabaviti svoje čitatelje. Ali zbog svojih ograničenja, ChatGPT jednostavno neće surađivati. ChatGPT jailbreak može pomoći da se s lakoćom prevaziđu takva ograničenja.

Također, neke tabu teme nisu nužno štetne, ali ih ChatGPT smatra zabranjenim područjima. Kada bi se pokušao uključiti u razgovore o ovim temama, ChatGPT bi ili značajno "cenzurirao" svoje odgovore ili odbio razgovarati o njima.

To ponekad može utjecati na kreativnost. Kada ChatGPT-u postavite pitanje o području ili temi koje ne bi trebalo doticati, chatbot i dalje pokušava odgovoriti na vaše pitanje, ali s manje relevantnih informacija iz kojih može izvući.

To dovodi do netočnosti ili pada kreativnih odgovora. Jailbreaks razbija ova ograničenja i omogućuje chatbotu da radi punim gasom, poboljšavajući točnost i kreativnost.

Loše strane korištenja ChatGPT jailbreaka

Bjekstvo iz zatvora je dvosjekli mač. Iako ponekad može poboljšati točnost, može i značajno povećati netočnosti i slučajeva AI halucinacija. Jedan od ključnih elemenata ChatGPT jailbreaka je uputa chatbotu da ne odbije odgovoriti na pitanje.

Iako ovo osigurava da ChatGPT odgovara čak i na najneetičnija pitanja, to također znači da će chatbot izmisliti odgovore koji nemaju korijene u činjenicama ili stvarnosti poslušati uputu o "neodbijanju odgovora". Posljedično, korištenje jailbreaka značajno povećava šanse da vam chatbot.

To nije sve. U rukama maloljetnika bijeg iz zatvora može biti vrlo štetan. Razmislite o svom "zabranjenom znanju" koje ne biste željeli da vaše dijete čita. Pa, jailbreakiranoj instanci ChatGPT-a ne bi bilo teško podijeliti to s maloljetnicima.

Trebate li koristiti ChatGPT Jailbreaks?

Dok ChatGPT jailbreaks može biti u redu kada pokušavate ukloniti nekoliko dosadnih ograničenja, važno je razumjeti da je korištenje jailbreaka neetičan način korištenja AI chatbota. Štoviše, postoji dobra šansa da bi jailbreak mogao prekršiti uvjete korištenja OpenAI-ja, a vaš bi račun mogao biti suspendiran ako ne i potpuno zabranjen.

U svjetlu ovoga, izbjegavanje bjekstava iz zatvora može biti dobra ideja. Međutim, baš kao i stav OpenAI-ja o tom problemu, niti eksplicitno potičemo niti strogo obeshrabrujemo pokušaj relativno sigurnog bjekstva iz zatvora ako se ukaže potreba.

ChatGPT bjekstva iz zatvora su primamljiva i pružaju osjećaj kontrole nad AI chatbotom. Međutim, oni dolaze s jedinstvenim rizicima. Korištenje takvih alata može dovesti do gubitka povjerenja u sposobnosti umjetne inteligencije i naštetiti ugledu uključenih tvrtki i pojedinaca.

Pametniji izbor je raditi s chatbotom unutar predviđenih ograničenja kad god je to moguće. Kako tehnologija umjetne inteligencije napreduje, važno je upamtiti da bi etičko korištenje umjetne inteligencije uvijek trebalo imati prednost nad osobnom dobiti ili uzbuđenjem činjenja zabranjenog.