AI chatbots могат да халюцинират, давайки уверено неправилни отговори - от което хакерите могат да се възползват. Ето как хакерите превръщат халюцинациите в оръжие.

ИИ на големите езикови модели са несъвършени и понякога генерират невярна информация. Тези случаи, наречени халюцинации, могат да представляват киберзаплаха за бизнеса и отделните ентусиасти на AI.

За щастие можете да увеличите защитните сили срещу халюцинации на изкуствен интелект с повишено съзнание и здравословно повторно отгатване.

Защо AI халюцинира?

Няма консенсус защо AI моделите халюцинират, въпреки че има няколко вероятни предположения.

AI се обучава от масивни набори от данни, често съдържащи недостатъци като пропуски в мисълта, вариации в значимостта на съдържанието или вредни пристрастия. Всяко обучение от тези непълни или неадекватни набори от данни може да бъде коренът на халюцинациите, дори ако по-късните повторения на набора от данни са били подготвени от специалисти по данни.

С течение на времето специалистите по данни могат да направят информацията по-точна и да въведат допълнителни знания, за да запълнят свободните места и да сведат до минимум потенциала за халюцинации. Надзорниците може да погрешно етикетират данни. Програмният код може да има грешки. Коригирането на тези елементи е от съществено значение, тъй като AI моделите напредват въз основа на алгоритми за машинно обучение.

instagram viewer

Тези алгоритми използват данни, за да определят. Разширение на това е невронната мрежа на AI, която създава нови решения от опит с машинно обучение до приличат на оригиналността на човешките умове по-точно. Тези мрежи съдържат трансформатори, които анализират връзките между отдалечени точки от данни. Когато трансформаторите се повредят, може да се появят халюцинации.

Как AI халюцинациите предоставят възможности за хакерите

За съжаление, не е общоизвестно, че AI халюцинира и AI ще звучи уверено, дори когато е напълно погрешно. Всичко това допринася за това потребителите да станат по-доволни и да се доверяват на AI, а участниците в заплахите разчитат на това потребителско поведение, за да ги накарат да изтеглят или да задействат своите атаки.

Например, AI модел може да халюцинира библиотека с фалшив код и да препоръча на потребителите да изтеглят тази библиотека. Вероятно моделът ще продължи да препоръчва същата халюцинирана библиотека на много потребители, които задават подобен въпрос. Ако хакерите открият тази халюцинация, те могат да създадат истинска версия на въображаемата библиотека, но пълна с опасен код и зловреден софтуер. Сега, когато AI продължава да препоръчва библиотеката с кодове, неволните потребители ще изтеглят кода на хакерите.

Транспортирането на вреден код и програми чрез възползване от AI халюцинациите не е изненадваща следваща стъпка за участниците в заплахата. Хакерите не създават непременно безброй нови кибер заплахи – те просто търсят нови начини да ги доставят без подозрение. AI халюцинациите са плячка на същата човешка наивност, кликването върху имейл връзките зависи от (ето защо трябва използвайте инструменти за проверка на връзки, за да проверите URL адресите).

Хакерите също могат да го пренесат на следващото ниво. Ако търсите помощ за кодиране и изтеглите фалшивия злонамерен код, заплахата може също така да направи кода действително функционален, като във фонов режим работи вредна програма. Това, че работи по начина, по който очаквате, не означава, че не е опасен.

Липсата на образование може да ви насърчи да изтеглите препоръки, генерирани от AI, поради поведението на онлайн автопилот. Всеки сектор е под културен натиск да приеме AI в своите бизнес практики. Безброй организации и индустрии, далеч от технологиите, си играят с AI инструменти с малко опит и още по-оскъдна киберсигурност, просто за да останат конкурентоспособни.

Как да се предпазите от халюцинации на изкуствен интелект с оръжие

Прогресът е на хоризонта. Създаването на зловреден софтуер с генеративен AI беше лесно, преди компаниите да коригират наборите от данни и правилата и условията, за да предотвратят неетични поколения. Познавайки социалните, техническите и личните слабости, които може да имате срещу опасните AI халюцинации, какви са някои от начините да останете в безопасност?

Всеки в индустрията може да работи върху усъвършенстването на технологията на невронните мрежи и проверката на библиотеката. Трябва да има проверки и баланси, преди отговорите да ударят крайните потребители. Въпреки че това е необходим напредък в индустрията, вие също трябва да играете роля в защитата на себе си и другите от генериращи AI заплахи.

Средностатистически потребители може да практикува забелязване на AI халюцинации с тези стратегии:

  • Откриване на правописни и граматически грешки.
  • Вижте кога контекстът на заявката не съответства на контекста на отговора.
  • Признаване на случаите, когато базираните на компютърно зрение изображения не съвпадат с начина, по който човешките очи биха видели концепцията.

Винаги внимавайте, когато изтегляте съдържание от интернет, дори когато е препоръчано от AI. Ако AI препоръчва изтегляне на код, не го правете сляпо; проверете всички отзиви, за да се уверите, че кодът е легитимен и вижте дали можете да намерите информация за създателя.

Най-добрата съпротива срещу атаки, базирани на AI халюцинации, е образованието. Говоренето за вашите преживявания и четенето как други са предизвикали злонамерени халюцинации, независимо дали случайно или умишлено тестване, е безценно за навигирането на AI в бъдеще.

Подобряване на киберсигурността на AI

Трябва да внимавате какво питате, когато говорите с AI. Ограничете потенциала за опасни резултати, като бъдете възможно най-конкретни и поставяте под въпрос всичко, което се появява на екрана. Тествайте кода в безопасни среди и проверете друга привидно достоверна информация. Освен това, сътрудничество с други, обсъждане на вашите преживявания и опростяване на жаргона за AI халюцинациите и заплахите за киберсигурността могат да помогнат на масите да бъдат по-бдителни и устойчиви срещу хакери.