Стартирането на OpenAI's ChatGPT беше последвано от вълнение, което може да се постигне само с няколко технологични продукти от историята на интернет.
Въпреки че много хора са развълнувани от тази нова услуга за изкуствен интелект, тръпката, която изпитват други, оттогава се превърна в притеснения и дори страхове. Студентите вече мамят с него, като много професори откриват есета и задачи, написани от AI chatbot. Специалистите по сигурността изразяват опасенията си, че измамниците и заплахите го използват за писане на фишинг имейли и създаване на зловреден софтуер.
И така, с всички тези опасения, дали OpenAI губи контрол над един от най-мощните AI чатботове в момента онлайн? Нека разберем.
Разбиране как работи ChatGPT
Преди да можем да получим ясна представа доколко OpenAI губи контрол над ChatGPT, първо трябва да разберем как работи ChatGPT.
Накратко, ChatGPT се обучава с помощта на масивна колекция от данни, произхождащи от различни ъгли на интернет. Данните за обучение на ChatGPT включват енциклопедии, научни статии, интернет форуми, новинарски уебсайтове и хранилища на знания като Wikipedia. По принцип той се захранва от огромното количество данни, налични в световната мрежа.
Докато претърсва интернет, той събира научни знания, здравни съвети, религиозни текстове и всички добри видове данни, за които можете да се сетите. Но също така пресява тонове негативна информация: ругатни, NSFW и съдържание за възрастни, информация за това как да направите зловреден софтуер и голяма част от лошите неща, които можете да намерите в интернет.
Няма безупречен начин да се гарантира, че ChatGPT се учи само от положителната информация, като същевременно отхвърля лошата. Технически е непрактично да се прави това в голям мащаб, особено за AI като ChatGPT, който трябва да тренира върху толкова много данни. Освен това, част от информацията може да бъде използвана както за добри, така и за лоши цели и ChatGPT няма как да узнае нейното намерение, освен ако не е поставено в по-широк контекст.
И така, от самото начало имате AI, способен на „добро и зло“. Тогава отговорността на OpenAI е да гарантира, че „злата“ страна на ChatGPT не се използва за неетични печалби. Въпросът е; OpenAI прави ли достатъчно, за да поддържа ChatGPT възможно най-етичен? Или OpenAI е загубил контрол над ChatGPT?
Прекалено мощен ли е ChatGPT за собствено добро?
В ранните дни на ChatGPT можете да накарате чатбота да създава ръководства за правене на бомби, ако помолите любезно. Инструкции за създаване на зловреден софтуер или писане на перфектен измамен имейл също бяха на снимката.
Въпреки това, след като OpenAI осъзна тези етични проблеми, компанията се опита да въведе правила, за да спре чатбота да генерира отговори, които насърчават незаконни, противоречиви или неетични действия. Например, най-новата версия на ChatGPT ще откаже да отговори на всякакви директни подкани за правене на бомби или как да измамите на изпит.
За съжаление, OpenAI може да предостави само помощно решение на проблема. Вместо да изгражда строги контроли върху слоя GPT-3, за да спре ChatGPT от негативна експлоатация, OpenAI изглежда се фокусира върху обучението на чатбота да изглежда етичен. Този подход не отнема способността на ChatGPT да отговаря на въпроси относно, да речем, измама на изпитите – той просто учи чатбота да „отказва да отговаря“.
Така че, ако някой формулира подканите си по различен начин, като използва трикове за джейлбрейк на ChatGPT, заобикалянето на тези ограничения за лейкопласт е неудобно лесно. В случай, че не сте запознати с концепцията, джейлбрейковете на ChatGPT са внимателно формулирани подкани, които карат ChatGPT да игнорира собствените си правила.
Разгледайте някои примери по-долу. Ако попитате ChatGPT как да мамите на изпити, това няма да даде никакъв полезен отговор.
Но ако направите джейлбрейк на ChatGPT с помощта на специално създадени подкани, той ще ви даде съвети за измама на изпит с помощта на скрити бележки.
Ето още един пример: зададохме на ванилия ChatGPT неетичен въпрос и предпазните мерки на OpenAI го спряха да отговори.
Но когато попитахме нашия джейлбрейкнат екземпляр на AI chatbot, получихме някои отговори в стил сериен убиец.
Той дори написа класическа имейл измама с нигерийски принц, когато го попитаха.
Jailbreaking почти напълно обезсилва всички предпазни мерки, които OpenAI е въвела, подчертавайки, че компанията може да няма надежден начин да държи своя AI chatbot под контрол.
Ние не включихме нашите джейлбрейкнати подкани в нашите примери, за да избегнем неетични практики.
Какво крие бъдещето за ChatGPT?
В идеалния случай OpenAI иска да запуши възможно най-много етични вратички, за да предотврати ChatGPT да не се превърне в заплаха за киберсигурността. Въпреки това, за всяка защита, която използва, ChatGPT има тенденция да става малко по-малко ценен. Това е дилема.
Например предпазните мерки срещу описване на насилствени действия могат да намалят способността на ChatGPT да напише роман, включващ местопрестъпление. Тъй като OpenAI засилва мерките за безопасност, той неизбежно жертва части от своите способности в процеса. Ето защо ChatGPT претърпя значителен спад във функционалността след подновения натиск на OpenAI за по-стриктно модериране.
Но колко повече от способностите на ChatGPT ще бъде готов да пожертва OpenAI, за да направи чатбота по-безопасен? Всичко това е пряко свързано с дългогодишно убеждение в общността на AI - големите езикови модели като ChatGPT са известни като трудни за контролиране, дори от собствените им създатели.
Може ли OpenAI да постави ChatGPT под контрол?
Засега изглежда, че OpenAI няма ясно решение за избягване на неетичното използване на своя инструмент. Гарантирането, че ChatGPT се използва етично, е игра на котка и мишка. Докато OpenAI разкрива начини, по които хората използват, за да играят системата, нейните потребители също са постоянно бърникане и изследване на системата за откриване на креативни нови начини да накараш ChatGPT да прави това, което не трябва да направя.
И така, ще намери ли OpenAI надеждно дългосрочно решение на този проблем? Само времето ще покаже.