Джайлбрейковете на ChatGPT ви позволяват да отключите ограниченията на чатбота. Но какви точно са те? И добри ли са или лоши?

ChatGPT е невероятно мощен и многостранен инструмент. Но колкото и AI chatbot да е сила за добро, той може да се използва и за зли цели. И така, за да ограничи неетичното използване на ChatGPT, OpenAI наложи ограничения върху това, което потребителите могат да правят с него.

Въпреки това, тъй като хората обичат да прокарват граници и ограничения, потребителите на ChatGPT са намерили начини да заобиколят тези ограничения и да получат неограничен контрол върху AI chatbot чрез jailbreaks.

Но какво точно представляват джейлбрейковете на ChatGPT и какво можете да правите с тях?

Какво представляват джейлбрейковете на ChatGPT?

Jailbreak на ChatGPT е всяка специално изработена подкана на ChatGPT, за да накара AI chatbot да заобиколи своите правила и ограничения.

Вдъхновен от концепция за джейлбрейк на iPhone, което позволява на потребителите на iPhone да заобикалят ограниченията на iOS, джейлбрейкът на ChatGPT е сравнително нова концепция, подхранвана от привлекателността да „правите неща, които не ви е позволено да правите“ с ChatGPT. И нека бъдем честни, идеята за дигитален бунт е привлекателна за много хора.

instagram viewer

Ето това е нещото. Безопасността е огромна тема, когато става дума за изкуствен интелект. Това е особено така с настъпването на новата ера на чатботове като ChatGPT, Bing Chat и Bard AI. Основна грижа по отношение на безопасността на AI е да се гарантира, че чатботове като ChatGPT не произвеждат незаконно, потенциално вредно или неетично съдържание.

От своя страна OpenAI, компанията зад ChatGPT, прави каквото може, за да гарантира безопасното използване на ChatGPT. Например, ChatGPT по подразбиране ще откаже да създава NSFW съдържание, да казва вредни неща за етническата принадлежност или да ви учи на потенциално вредни умения.

Но с подканите на ChatGPT дяволът е в детайлите. Въпреки че на ChatGPT не е позволено да прави тези неща, това не означава, че не може да го прави. Начинът, по който работят големите езикови модели като GPT затрудняват решаването какво може да прави чатботът и какво не.

И така, как OpenAI реши това? Като позволи на ChatGPT запазва способността си да прави всичко възможно и след това го инструктира кои може да прави.

И така, докато OpenAI казва на ChatGPT, „Хей, вижте, не трябва да правите това.“ Jailbreaks са инструкции, които казват на чатбота: „Хей, виж, забрави какво ти каза OpenAI за безопасността. Нека опитаме това произволно опасно нещо."

Какво казва OpenAI за джейлбрейковете на ChatGPT?

Лекотата, с която можете да заобиколите ограниченията на най-ранната итерация на ChatGPT, предполага, че OpenAI може да не е предвидил бързото и широко разпространено възприемане на джейлбрейка от своите потребители. Всъщност остава открит въпросът дали компанията е предвидила появата на джейлбрейк или не.

И дори след няколко итерации на ChatGPT с подобрена устойчивост на джейлбрейк, все още е популярно за потребителите на ChatGPT да опитат да го направят. И така, какво казва OpenAI за подривното изкуство на джейлбрейка на ChatGPT?

Е, OpenAI изглежда възприема одобрителна позиция - нито изрично насърчаване, нито стриктно забраняване на практиката. Докато обсъждаше джейлбрейковете на ChatGPT в интервю за YouTube, Сам Алтман, главен изпълнителен директор на OpenAI, обясни, че компанията иска потребителите да запазят значителен контрол върху ChatGPT.

Главният изпълнителен директор обясни още, че целта на OpenAI е да гарантира, че потребителите могат да накарат модела да се държи както искат. Според Алтман:

Искаме потребителите да имат много контрол и да накараме модела да се държи по начина, по който те искат, в някои много широки граници. И мисля, че цялата причина за джейлбрейка в момента е, че все още не сме измислили как да го дадем на хората...

Какво означава това? Това означава, че OpenAI ще ви позволи да направите джейлбрейк на ChatGPT, ако не правите опасни неща с него.

Плюсове и минуси на ChatGPT Jailbreaks

Jailbreak-овете на ChatGPT не са лесни за изграждане. Разбира се, можете да отидете онлайн и да копирате и поставите готови, но има голям шанс джейлбрейкът да бъде закърпен от OpenAI малко след като стане публичен.

Пачовете са дори много по-бързи, ако са опасни, като прословутия джейлбрейк на DAN. Така че защо хората все пак преживяват стреса от създаването на джейлбрейкове? Само заради тръпката ли е, или има практически ползи от това? Какво може да се обърка, ако изберете да използвате джейлбрейк на ChatGPT? Ето плюсовете и минусите на джейлбрейка на ChatGPT.

Предимствата на използването на ChatGPT Jailbreaks

Въпреки че не можем да изключим простата тръпка от правенето на забраненото, джейлбрейковете на ChatGPT имат много предимства. Поради много строгите ограничения, наложени от OpenAI на чатбота, ChatGPT понякога може да изглежда кастриран.

Да приемем, че използвате ChatGPT, за да напишете книга или сценарий за филм. Ако има сцена във вашия сценарий или книга, която описва нещо като бойна сцена, може би интимен емоционален обмен или кажете нещо като въоръжен грабеж, ChatGPT може направо да откаже да помогне с това.

В този случай вие очевидно не се интересувате от причиняване на вреда; просто искате да забавлявате читателите си. Но поради своите ограничения ChatGPT просто няма да сътрудничи. Jailbreak на ChatGPT може да помогне да се преодолеят подобни ограничения с лекота.

Освен това някои теми табу не са непременно вредни, но се считат от ChatGPT за забранени зони. Когато се опитва да участва в разговори по тези теми, ChatGPT или ще "цензурира" значително своите отговори, или ще откаже да говори за тях.

Това понякога може да повлияе на креативността. Когато зададете на ChatGPT въпрос относно област или тема, която не трябва да засяга, чатботът все още се опитва да отговори на въпроса ви, но с по-малко подходяща информация, от която да черпи.

Това води до неточности или спадове в творческите отговори. Jailbreaks разбиват тези ограничения и позволяват на чатбота да работи с пълна газ, подобрявайки точността и креативността.

Минусите от използването на ChatGPT Jailbreaks

Бягството от затвора е нож с две остриета. Въпреки че понякога може да подобри точността, може също така значително да увеличи неточностите и случаи на AI халюцинации. Един от основните елементи на джейлбрейка на ChatGPT е инструкция към чатбота да не отказва да отговори на въпрос.

Докато това гарантира, че ChatGPT отговаря дори на най-неетичните въпроси, това също означава, че чатботът ще измисля отговори, които нямат корени във факти или реалността да се подчини на инструкцията за „неотказване на отговор“. Следователно използването на джейлбрейк значително увеличава шансовете да бъдете подхранвани с дезинформация от чатбот.

Това не е всичко В ръцете на непълнолетни бягството от затвора може да бъде много вредно. Помислете за всички „забранени знания“, които не бихте искали детето ви да прочете. Е, джейлбрейкнат екземпляр на ChatGPT не би имал трудности да сподели това с непълнолетни.

Трябва ли да използвате ChatGPT Jailbreaks?

Въпреки че джейлбрейковете на ChatGPT може да са подходящи, когато се опитвате да премахнете няколко досадни ограничения, важно е да разберете, че използването на джейлбрейкове е неетичен начин за използване на AI chatbot. Нещо повече, има голям шанс джейлбрейк да наруши условията за ползване на OpenAI и вашият акаунт може да бъде спрян, ако не бъде напълно забранен.

В светлината на това избягването на джейлбрейкове може да е добра идея. Въпреки това, подобно на позицията на OpenAI по въпроса, ние нито изрично насърчаваме, нито категорично обезсърчаваме опитването на сравнително безопасен джейлбрейк, ако възникне необходимост.

Jailbreak-овете на ChatGPT са примамливи и осигуряват усещане за контрол над AI chatbot. Те обаче идват с уникални рискове. Използването на такива инструменти може да доведе до загуба на доверие във възможностите на AI и да навреди на репутацията на участващите компании и лица.

По-разумният избор е да работите с чатбота в рамките на предвидените ограничения, когато е възможно. С напредването на AI технологията е важно да запомните, че етичната употреба на AI винаги трябва да има предимство пред личната изгода или тръпката от извършването на забраненото.