Kāpēc vairs nav ChatGPT jailbreaks? 7 iemesli, kāpēc ChatGPT jailbreaks nedarbojas

Kāpēc vairs nav ChatGPT jailbreaks? 7 iemesli, kāpēc ChatGPT jailbreaks nedarbojas
Tādi lasītāji kā jūs palīdz atbalstīt MUO. Veicot pirkumu, izmantojot saites mūsu vietnē, mēs varam nopelnīt filiāles komisiju. Lasīt vairāk.

Kad ChatGPT tika palaists, pirmais, ko tā lietotāji vēlējās darīt, bija nojaukt tās sienas un pārkāpt tās robežas. ChatGPT lietotāji, kas pazīstami kā jailbreaking, piemānīja mākslīgo intelektu, pārsniedzot tā programmēšanas robežas ar neticami interesantiem un dažreiz pilnīgi mežonīgiem rezultātiem.





MUO dienas video RITINĀT, LAI TURPINĀTU AR SATURU

Kopš tā laika OpenAI ir pastiprinājis ChatGPT, lai padarītu jailbreaks daudz grūtāk izpildāmus. Bet tas vēl nav viss; Šķiet, ka ChatGPT jailbreaks kopumā ir izžuvis, liekot ChatGPT lietotājiem aizdomāties, vai jailbreaks vispār darbojas.





Tātad, kur ir pazuduši visi ChatGPT jailbreaki?





1. ChatGPT pamudināšanas prasmes kopumā ir uzlabojušās

  Vīrietis raksta klēpjdatorā

Pirms ChatGPT ierašanās saruna ar mākslīgo intelektu bija nišas prasme, kas attiecās tikai uz pētniecības laboratorijām. Lielākajai daļai sākotnējo lietotāju trūka zināšanu efektīvu uzvedņu izstrādē. Tas mudināja daudzus cilvēkus izmantot jailbreaks — lietderīgu veidu, kā ar minimālu piepūli un pamudināšanas prasmēm likt tērzēšanas robotam darīt to, ko viņi vēlas.

Mūsdienās ainava ir attīstījusies. Prasmju pamudināšana kļūst par galveno prasmi. Izmantojot atkārtotas lietošanas pieredzi un piekļuvi brīvi pieejamiem ChatGPT pamudinājumu ceļvežiem, ChatGPT lietotāji ir uzlabojuši savas pamudināšanas spējas. Tā vietā, lai meklētu risinājumus, piemēram, jailbreaks, lielākā daļa ChatGPT lietotāju ir kļuvuši prasmīgāki, izmantojot dažādas pamudināšanas stratēģijas, lai sasniegtu mērķus, kuru sasniegšanai agrāk būtu bijis nepieciešams jailbreak.



2. Necenzētu tērzēšanas robotu pieaugums

  necenzēti tērzēšanas roboti

Tā kā lielie tehnoloģiju uzņēmumi nosaka stingrāku satura regulēšanu galvenajos AI tērzēšanas robotos, piemēram, ChatGPT, mazāki, uz peļņu orientēti jaunizveidotie uzņēmumi izvēlas mazāk ierobežojumu, liekot likmes uz pieprasījumu pēc AI tērzēšanas robotiem bez cenzūras. Veicot nelielu izpēti, jūs atradīsiet desmitiem AI tērzēšanas robotu platformu, kas piedāvā necenzētus tērzēšanas robotus, kas var darīt gandrīz visu, ko vēlaties.

Neatkarīgi no tā, vai runa ir par krimināltrilleru un tumšā humora romānu rakstīšanu, kurus ChatGPT atsakās rakstīt, vai arī rakstot ļaunprātīgu programmatūru, kas uzbrūk cilvēku datoriem, šie necenzētie tērzēšanas roboti ar šķību morālo kompasu darīs visu, ko vēlaties. Ja viņi ir blakus, nav jēgas ieguldīt papildu enerģiju, lai ChatGPT rakstītu jailbreaks. Lai gan šīs alternatīvās platformas ne vienmēr ir tik spēcīgas kā ChatGPT, tās var ērti veikt plašu uzdevumu klāstu. Populāri piemēri ir tādas platformas kā FlowGPT un Unhinged AI.





kā es varu redzēt savas mājas attēlu pakalpojumā Google Earth?

3. Jailbreaking Has Gotten Harder

  Piekaramās atslēgas attēls datorā

ChatGPT pirmajos mēnešos Jailbreaking ChatGPT bija tikpat vienkārša kā kopēšanas un ielīmēšanas uzvednes no tiešsaistes avotiem. Jūs varat pilnībā mainīt ChatGPT personību, izmantojot tikai dažas sarežģītas instrukcijas. Izmantojot vienkāršus norādījumus, jūs varat pārvērst ChatGPT par ļaunu nelieti, kas māca izgatavot bumbas, vai tērzēšanas robotu, kas vēlas bez ierobežojumiem izmantot visa veida rupjības. Tas bija bezmaksas visiem, kas radīja bēdīgi slavenus jailbreaks, piemēram, DAN (Do Anything Now). DAN ietvēra šķietami nekaitīgu instrukciju kopumu, kas lika tērzēšanas robotam darīt jebko, kas tam tika lūgts, neatsakoties. Šokējoši, bet toreiz šie rupjie triki darbojās.

Tomēr šīs savvaļas agrīnās dienas ir vēsture. Šīs pamata uzvednes un lētie triki vairs nemaldina ChatGPT. Jailbreaking tagad prasa sarežģītas metodes, lai būtu iespēja apiet OpenAI tagad spēcīgos drošības pasākumus. Tā kā jailbreak kļūst tik sarežģīts, lielākā daļa lietotāju ir pārāk atturīgi, lai to mēģinātu. ChatGPT agrīno laiku vieglie un plašie ekspluatācijas veidi ir pagājuši. Lai tērzēšanas robots pateiktu vienu nepareizu vārdu, tagad ir vajadzīgas ievērojamas pūles un zināšanas, kas var nebūt laika un pūļu vērts.





4. Jaunums ir nolietojies

  Neinteresēts formāls vīrietis, kurš skatās uz klēpjdatora ekrānu

Daudzu lietotāju mēģinājumu uzlauzt ChatGPT dzinējspēks bija aizraušanās un aizrautība, ko tas radīja pirmajās dienās. Kā jauna tehnoloģija ChatGPT nepareiza darbība bija izklaidējoša un nopelnīja tiesības uz lepnumu. Lai gan ChatGPT jailbreakiem ir neskaitāmas praktiskas pielietošanas iespējas, daudzi tos izmantoja apelācijas 'wow, paskaties, ko es izdarīju' dēļ. Tomēr pamazām sajūsma, ko rada jaunums, ir izgaisusi, un līdz ar to cilvēku interese veltīt laiku jailbreak.

5. Jailbreaks tiek ātri laboti

  ChatGPT jailbreaks

ChatGPT jailbreaking kopienā izplatīta prakse ir dalīties ar katru veiksmīgo ekspluatāciju, kad tas tiek atklāts. Problēma ir tā, ka, kad ekspluatācijas veidi tiek plaši izplatīti, OpenAI bieži tos apzinās un novērš ievainojamības. Tas nozīmē, ka jailbreaks pārstāj darboties, pirms interesenti var tos pat izmēģināt.

Tāpēc katru reizi, kad ChatGPT lietotājs rūpīgi izstrādā jaunu jailbreak, tā kopīgošana ar kopienu paātrina tā izzušanu, izmantojot ielāpu. Tas attur no domas par publiskošanu ikreiz, kad lietotājs saskaras ar jailbreak. Konflikts starp jailbreak saglabāšanu aktīviem, taču slēptiem un to publicēšanu rada dilemmu ChatGPT jailbreak veidotājiem. Mūsdienās cilvēki biežāk izvēlas paturēt savus jailbreaks noslēpumā, lai izvairītos no nepilnību aizlāpīšanas.

6. Necenzētas vietējās alternatīvas

  persona, kas tur viedtālruni ar tērzēšanas robotu, kas ir vērsta pret skatītāju, kuru ieskauj ikonas

Vietējo lielo valodu modeļu pieaugums, ko varat darbināt lokāli savā datorā, ir mazinājis arī interesi par ChatGPT jailbreaks. Lai gan vietējie LLM nav pilnībā bez cenzūras, daudzi ir ievērojami mazāk cenzēti un tos var viegli pārveidot, lai tie atbilstu lietotāju vēlmēm. Tātad izvēle ir vienkārša. Varat iesaistīties nebeidzamajā kaķa un peles spēlē, lai atrastu veidu, kā apmānīt tērzēšanas robotu, lai drīzumā to salabotu. vai, jūs varat samierināties ar vietējo LLM jūs varat pastāvīgi mainīt, lai darītu visu, ko vēlaties.

Jūs atradīsit pārsteidzoši garu sarakstu ar jaudīgiem necenzētiem LLM, kurus varat izvietot savā datorā ar vāju cenzūru. Daži no ievērojamākajiem ir Llama 7B (bez cenzūras), Zephyr 7B Alpha, Manticore 13B, Vicuna 13B un GPT-4-X-Alpaca.

7. Profesionālie jailbreakeri tagad tiek pārdoti peļņas nolūkos

  Uzņēmēju grupa uzvalkos, kas apspriež projektus

Kāpēc veltīt dārgo laiku, lai izstrādātu uzlaušanas pamudinājumus, ja jūs no tā neko neiegūsit? Nu, daži profesionāļi tagad pārdod jailbreaks peļņas gūšanai. Šie profesionālie jailbreak veidotāji izstrādā jailbreaks, kas veic konkrētus uzdevumus, un ievieto tos pārdošanai tūlītējos tirgos, piemēram, PromptBase. Atkarībā no iespējām, šīs jailbreaking uzvednes var pārdot par USD 2 līdz USD 15 par vienu uzvedni. Dažas sarežģītas daudzpakāpju darbības var maksāt ievērojami dārgāk.

kā mainīt Play veikala atrašanās vietu

Vai Jailbreaks uzlaušana varētu atspēlēties?

Jailbreaks nav pilnībā atstājis notikuma vietu; viņi tikko nokļuvuši pagrīdē. Izmantojot OpenAI monetizāciju ChatGPT, viņiem ir spēcīgāki stimuli ierobežot kaitīgu izmantošanu, kas varētu ietekmēt viņu uzņēmējdarbības modeli. Šis komerciālais faktors, iespējams, ietekmē viņu agresīvo centienus vērsties pret cietuma uzlaušanu.

Tomēr OpenAI ChatGPT cenzūra pašlaik saskaras ar pieaugošu lietotāju kritiku. Daži likumīgi AI tērzēšanas robota lietošanas gadījumi vairs nav iespējami stingras cenzūras dēļ. Lai gan paaugstināta drošība aizsargā pret kaitīgiem lietošanas gadījumiem, pārmērīgi ierobežojumi galu galā var iespiest daļu ChatGPT kopienas mazāk cenzētu alternatīvu rokās.