Tay AI на Microsoft премина от обещаващ AI до пълна катастрофа за по-малко от ден. Ето какво научи компанията.
AI chatbots като ChatGPT все повече се превръщат в неразделна част от съвременните технологии, но непознат за мнозина, генеративният AI не винаги е бил толкова добър, колкото е днес. Всъщност през 2016 г. създаденият от Microsoft чатбот Tay ни показа колко бързо AI може да има обратен ефект.
Нека проучим какво представлява AI чатботът на Microsoft Tay, защо се провали, неговите противоречия и уроците, които компанията научи след катастрофалния си провал.
Какво беше Тей на Microsoft?
Tay беше AI чатбот, разработен от Microsoft и предоставен чрез Twitter на 23 март 2016 г. Чатботът е разработен за 18- до 24-годишни в САЩ за „развлекателни цели“ и за „експериментиране и провеждане на изследвания върху разговорното разбиране“.
Tay не е предназначен да бъде сложен чатбот като ChatGPT, а приятелски AI бот в Twitter, с когото можете да водите разговори - нещо като Моят AI в Snapchat, но за общуване.
Защо Microsoft затвори Tay?
Microsoft свали Tay в рамките на 24 часа след пускането му на живо – по основателна причина. Почти веднага след представянето на Тей, потребителите на Twitter започнаха да злоупотребяват с услугата, като захранваха чатбота дезинформация, учейки я на унизителни термини и я подтиквайки да бъде все по-обидна, само за да види докъде бих отишъл.
И наистина стигна далеч. В рамките на часове след стартирането, Тей туитваше някои от най-обидните расови обиди, разпространяваше език на омразата, насърчаваше нацизма и дори вдъхновяваше „расова война“. Ех! Очевидно Microsoft имаше ужасно време и не можеше да остави услугата да продължи.
В публикувайте в официалния блог на Microsoft, Корпоративният вицепрезидент на Microsoft Питър Лий повтори същото:
Дълбоко съжаляваме за непреднамерените обидни и нараняващи туитове от Tay, които не представят кои сме ние или какво представляваме, нито как сме създали Tay. Тей вече е офлайн и ще се опитаме да върнем Тей обратно само когато сме уверени, че можем по-добре да предвидим злонамерени намерения, които са в конфликт с нашите принципи и ценности.
Провалът на Тей е само един от многото опасностите от изкуствения интелект и силно напомняне защо разработването му трябва да се извършва с най-голяма предпазливост и надзор.
6 урока, които Microsoft научи след Тей
Tay беше пълна катастрофа, но също така научи Microsoft на някои важни уроци, когато се стигна до разработването на инструменти за изкуствен интелект. И за това, което си струва, вероятно е за по-добро, че Microsoft научи уроците си по-рано, отколкото по-късно, което му позволи да вземе преднина пред Google и да разработи новата Браузър Bing с AI.
Ето някои от тези уроци:
1. Интернет е пълен с тролове
Интернет е пълен с тролове, а това не е точно новина, нали? Очевидно това беше така за Microsoft през 2016 г. Не казваме, че изграждането на чатбот за „развлекателни цели“, насочен към 18- до 24-годишни, има нещо общо със скоростта, с която се злоупотребява с услугата. И все пак това определено не беше най-умната идея.
Хората естествено искат да тестват границите на новите технологии и в крайна сметка работата на разработчика е да отчете тези злонамерени атаки. В известен смисъл вътрешните тролове действат като механизъм за обратна връзка за осигуряване на качеството, но това не означава, че чатботът трябва да бъде пуснат без подходящи предпазни мерки, поставени преди стартирането.
2. AI не може интуитивно да прави разлика между добро и лошо
Концепцията за добро и зло е нещо, което AI интуитивно не разбира. Трябва да бъде програмиран да симулира знанието за това кое е правилно и грешно, кое е морално и неморално и кое е нормално и странно.
Тези качества са повече или по-малко естествени за хората като социални същества, но AI не може да формира независими преценки, да изпитва съпричастност или да изпитва болка. Ето защо, когато потребителите на Twitter захранваха Тей с всякакъв вид пропаганда, ботът просто го следваше - без да осъзнава етиката на информацията, която събираше.
3. Не обучавайте AI модели, като използвате разговорите на хората
Tay е създаден чрез „извличане на подходящи публични данни и използване на AI и редакционни редакции, разработени от персонал, включително импровизационни комедианти." Обучението на AI модел, използвайки разговорите на хората в интернет, е ужасно идея.
И преди да обвините за това Twitter, знайте, че резултатът вероятно щеше да е същият, независимо от платформата. Защо? Защото хората просто не са най-добрите в интернет. Те стават емоционални, използват жаргонни думи и използват своята анонимност, за да бъдат нечестиви.
4. ИИ няма здрав разум и не разбира сарказъм
AI днес изглежда по-интуитивен (или, казано по-точно, е по-добър в симулирането на интуицията), но все още понякога се бори с разпознаването на сарказъм и фигури на речта. Това беше вярно още повече през 2016 г. Това, което е очевидно за хората, не е очевидно за AI; с други думи, липсва здрав разум.
ИИ като Тей не разбират защо хората сме такива, каквито сме, действаме така, както и ексцентричността на всеки индивид. Може да се държи и да звучи като човешки до изненадваща степен, но доброто програмиране може да стигне само дотам.
5. AI трябва да бъде програмиран да отхвърля невалидни заявки
AI е много впечатлителен и трябва да бъде програмиран да отхвърля искания, насърчаващи вреда. Дори днес, след целия ни напредък в обработката на естествен език, хората все още намират езикови вратички, за накарайте AI chatbots като ChatGPT да „халюцинират“ и предоставят резултати, които са предназначени да бъдат ограничени.
Въпросът тук е, че изкуственият интелект е напълно послушен, което е може би най-голямата му сила и слабост. Всичко, което не искате да прави чатботът, трябва да бъде програмирано ръчно в него.
6. AI Chatbots никога не трябва да се оставят без надзор
Докато изкуственият интелект не може да се регулира, не може да бъде оставен без надзор. Можете да мислите за днешния AI като за дете чудо; в някои отношения е брилянтен, но все пак е дете. Ако бъдат оставени без надзор, хората ще се възползват от слабостите му - и Тей беше отличен пример за това.
AI е инструмент, точно като интернет, но скоростта и мащабът, с който нещата могат да имат обратен ефект с AI, са много по-големи от това, което преживяхме в ранните дни на интернет.
AI се нуждае от постоянен надзор и регулиране
Тей не е единственият чатбот, който се измами – имаше много други подобни случаи. Но това, което го отличава, е чистата скорост, с която го направи - и фактът, че е направен от технологичен гигант като Microsoft.
Примери като този показват колко внимателни трябва да бъдем, когато разработваме AI инструменти, особено когато те са предназначени да се използват от обикновени хора.