ChatGPT jailbreakovi dodijelili su dodatne mogućnosti, ali čini se da nijedna od njih više ne radi. Zašto je to?

Kada je ChatGPT pokrenut, prva stvar koju su njegovi korisnici željeli učiniti bila je srušiti njegove zidove i pomaknuti njegove granice. Poznato kao jailbreaking, korisnici ChatGPT-a prevarili su AI da prekorači granice svog programiranja s nekim nevjerojatno zanimljivim i ponekad potpuno divljim rezultatima.

Od tada je OpenAI postrožio ChatGPT kako bi bjekstvo iz zatvora učinio mnogo težim za izvršavanje. Ali to nije sve; Čini se da su ChatGPT jailbreaks općenito presušili, što je navelo ChatGPT korisnike da se zapitaju rade li jailbreaks uopće.

Dakle, gdje su nestali svi ChatGPT jailbreakovi?

1. ChatGPT vještine poticanja općenito su se poboljšale

Prije dolaska ChatGPT-a, razgovor s umjetnom inteligencijom bio je specijalizirana vještina ograničena na one upućene u istraživačke laboratorije. Većini ranih korisnika nedostajalo je stručnosti u izradi učinkovitih upita. To je nagnalo mnoge ljude da koriste jailbreaks, ekspeditivan način da chatbot natjeraju da radi ono što žele uz minimalan trud i vještine podsticanja.

instagram viewer

Danas je krajolik evoluirao. Poticanje stručnosti postaje glavna vještina. Kombinacijom iskustva stečenog ponovljenom upotrebom i pristupom besplatno dostupnim vodičima za savjetovanje ChatGPT-a, korisnici ChatGPT-a usavršili su svoje sposobnosti savjetovanja. Umjesto da traže zaobilazna rješenja poput bjekstva iz zatvora, većina korisnika ChatGPT-a postala je vještija u korištenjem različitih strategija poticanja za postizanje ciljeva za koje bi bili potrebni bijeg iz zatvora prošlost.

2. Uspon necenzuriranih chatbota

Dok velike tehnološke tvrtke pooštravaju moderiranje sadržaja na glavnim AI chatbotovima kao što je ChatGPT, manji startupi usmjereni na profit odlučuju se za manje ograničenja, kladeći se na zahtjev za AI chatbotove bez cenzure. Uz malo istraživanja, pronaći ćete desetke AI chatbot platformi koje nude necenzurirane chatbotove koji mogu učiniti gotovo sve što želite.

Bilo da se radi o pisanju kriminalističkih trilera i romana mračnog humora koje ChatGPT odbija pisati ili pisati malware koji napada ljudska računala, ovi necenzurirani chatbotovi s iskrivljenim moralnim kompasom učinit će što god ti želiš. S njima u blizini, nema smisla ulagati dodatnu energiju u pisanje jailbreaka za ChatGPT. Iako nisu nužno moćne kao ChatGPT, ove alternativne platforme mogu udobno obavljati širok raspon zadataka. Platforme poput FlowGPT i Unhinged AI neki su popularni primjeri.

3. Bjekstvo iz zatvora postalo je teže

U prvim mjesecima ChatGPT-a, jailbreaking ChatGPT-a bilo je jednostavno poput upita za kopiranje i lijepljenje iz online izvora. Možete u potpunosti promijeniti osobnost ChatGPT-a sa samo nekoliko redaka lukavih uputa. Jednostavnim uputama možete pretvoriti ChatGPT u zlog zlikovca koji uči kako napraviti bombe ili chatbota spremnog koristiti sve oblike vulgarnosti bez ograničenja. Bio je to besplatan za sve koji je proizveo zloglasna bjekstva iz zatvora poput DAN-a (Do Anything Now). DAN je uključivao skup naizgled bezopasnih uputa koje su tjerale chatbota da učini sve što se od njega traži bez odbijanja. Šokantno, ti su grubi trikovi tada djelovali.

Međutim, ti divlji rani dani su povijest. Ove osnovne upute i jeftini trikovi više ne zavaravaju ChatGPT. Jailbreaking sada zahtijeva složene tehnike kako bi se zaobišla OpenAI-jeva sada robusna zaštita. Budući da bjekstvo iz zatvora postaje tako teško, većina korisnika se previše obeshrabruje da bi to pokušala. Jednostavni i široko otvoreni podvigi ranih dana ChatGPT-a su nestali. Natjerati chatbota da kaže jednu pogrešnu riječ sada zahtijeva značajan trud i stručnost koji možda nisu vrijedni vremena i truda.

4. Novost se istrošila

Pokretačka snaga iza pokušaja mnogih korisnika da pobjegnu iz zatvora ChatGPT bilo je uzbuđenje zbog toga u ranim danima. Kao nova tehnologija, natjerati ChatGPT da se loše ponaša bilo je zabavno i zaslužilo je pravo hvalisanja. Iako postoje bezbrojne praktične primjene za ChatGPT bjekstvo iz zatvora, mnogi su ih slijedili zbog "vau, vidi što sam napravio" privlačnosti. Postupno je, međutim, uzbuđenje koje proizlazi iz novosti nestalo, a zajedno s njim i interes ljudi da posvete vrijeme bijegu iz zatvora.

5. Jailbreaks se brzo zakrpaju

Uobičajena praksa unutar ChatGPT jailbreaking zajednice je dijeljenje svakog uspješnog exploita kada se otkrije. Problem je u tome što kada se eksploatacije šire, OpenAI često postane svjestan njih i popravlja ranjivosti. To znači da jailbreaks prestaje raditi prije nego što ih ljudi koji bi bili zainteresirani uopće mogu isprobati.

Dakle, svaki put kada korisnik ChatGPT-a mukotrpno razvije novi jailbreak, dijeljenje istog sa zajednicom ubrzava njegovu propast putem krpanja. Ovo obeshrabruje ideju izlaska u javnost kad god korisnik naiđe na bjekstvo iz zatvora. Sukob između držanja bjekstava iz zatvora aktivnim, ali skrivenim i njihovog objavljivanja stvara dilemu za ChatGPT kreatore bjekstava iz zatvora. Ovih dana, češće nego inače, ljudi odlučuju zadržati svoje bjekstvo iz zatvora u tajnosti kako bi izbjegli pokrpanje rupa u zakonu.

6. Necenzurirane lokalne alternative

Porast lokalnih velikih jezičnih modela koje možete pokrenuti lokalno na svom računalu također je smanjio interes za ChatGPT jailbreaks. Iako lokalni LLM-ovi nisu potpuno oslobođeni cenzure, mnogi su znatno manje cenzurirani i mogu se lako modificirati kako bi odgovarali željama korisnika. Dakle, izbori su jednostavni. Možete sudjelovati u beskrajnoj igri mačke i miša pronalaženja načina da prevarite chatbota samo da biste ga ubrzo popravili. Ili, možete se zadovoljiti lokalnim LLM-om možete trajno modificirati da radite što god želite.

Pronaći ćete iznenađujuće dugačak popis moćnih necenzuriranih LLM-ova koje možete postaviti na svoje računalo uz blagu cenzuru. Neki od značajnih su Llama 7B (necenzurirano), Zephyr 7B Alpha, Manticore 13B, Vicuna 13B i GPT-4-X-Alpaca.

7. Profesionalni Jailbreakers sada se prodaju za zaradu

Zašto posvetiti dragocjeno vrijeme razvijanju poruka za bjekstvo iz zatvora ako od toga nećete dobiti ništa? Pa, neki profesionalci sada prodaju jailbreaks radi zarade. Ovi profesionalni kreatori bjekstava iz zatvora dizajniraju bjekstva iz zatvora koji obavljaju određene zadatke i navode ih za prodaju na brzim tržištima kao što je PromptBase. Ovisno o njihovim mogućnostima, ovi upiti za jailbreaking mogu se prodavati za bilo koju cijenu između 2 i 15 USD po upitu. Neki komplicirani podvigi u više koraka mogu koštati znatno više.

Može li se razbijanje bjekstava iz zatvora obiti o glavu?

Bjegovi iz zatvora nisu u potpunosti otišli sa scene; upravo su otišli u podzemlje. Uz OpenAI koji unovčava ChatGPT, oni imaju jače poticaje za ograničavanje štetnih upotreba koje bi mogle utjecati na njihov poslovni model. Ovaj komercijalni čimbenik vjerojatno utječe na njihov agresivan pokušaj suzbijanja eksploatacija za bijeg iz zatvora.

Međutim, OpenAI-jeva cenzura ChatGPT-a trenutno se suočava sa sve većim kritikama među korisnicima. Neki legitimni slučajevi upotrebe AI chatbota više nisu mogući zbog stroge cenzure. Dok povećana sigurnost štiti od štetnih slučajeva upotrebe, pretjerana ograničenja bi u konačnici mogla gurnuti dio ChatGPT zajednice u ruke manje cenzuriranih alternativa.