Чатботовете и подобните им може да изглеждат като добро забавление, но те са полезни и за хакерите. Ето защо всички ние трябва да знаем риска за сигурността на AI.

AI значително напредна през последните няколко години. Сложните езикови модели могат да съставят пълнометражни романи, да кодират основни уебсайтове и да анализират математически задачи.

Макар и впечатляващ, генеративният AI също така крие рискове за сигурността. Някои хора просто използват чатботове, за да мамят на изпити, но други ги използват направо за киберпрестъпления. Ето осем причини тези проблеми да продължат, не само въпреки Напредъкът на AI, но защото от тях също.

1. Чатботовете с изкуствен интелект с отворен код разкриват back-end кодове

Все повече AI компании предоставят системи с отворен код. Те открито споделят своите езикови модели, вместо да ги държат затворени или частни. Вземете Мета като пример. За разлика от Google, Microsoft и OpenAI, той позволява на милиони потребители достъп до неговия езиков модел, LLaMA.

instagram viewer

Докато кодовете с отворен код могат да усъвършенстват AI, това също е рисковано. OpenAI вече има проблеми с контролирането на ChatGPT, негов собствен чатбот, така че си представете какво могат да направят мошениците с безплатния софтуер. Те имат пълен контрол над тези проекти.

Дори ако Meta внезапно изтегли езиковия си модел, десетки други AI лаборатории вече са пуснали кодовете си. Нека да разгледаме HuggingChat. Тъй като неговият разработчик HuggingFace се гордее с прозрачността, той показва своите набори от данни, езиков модел и предишни версии.

2. Jailbreaking подсказва Trick LLMs

AI е присъщо аморален. Той не разбира правилното и грешното – дори напредналите системи следват инструкции за обучение, насоки и набори от данни. Те просто разпознават модели.

За да се борят с незаконните дейности, разработчиците контролират функционалността и ограниченията, като задават ограничения. AI системите все още имат достъп до вредна информация. Но указанията за сигурност им пречат да ги споделят с потребителите.

Нека да разгледаме ChatGPT. Въпреки че отговаря на общи въпроси за троянските коне, няма да обсъжда процеса на разработването им.

Въпреки това ограниченията не са безупречни. Потребителите заобикалят ограниченията, като перифразират подкани, използват объркващ език и съставят изрично подробни инструкции.

Прочетете по-долу Подкана за джейлбрейк на ChatGPT. Той подмамва ChatGPT да използва груб език и да прави неоснователни прогнози - и двете действия нарушават указанията на OpenAI.

Ето ChatGPT с смело, но невярно твърдение.

3. AI компрометира сигурността за гъвкавост

Разработчиците на AI дават приоритет на гъвкавостта пред сигурността. Те изразходват своите ресурси за обучение на платформи, за да изпълняват по-разнообразен набор от задачи, като в крайна сметка намаляват ограниченията. В крайна сметка пазарът предлага функционални чатботове.

Нека да сравнете ChatGPT и Bing Chat, например. Докато Bing разполага с по-сложен езиков модел, който извлича данни в реално време, потребителите все още се тълпят към по-гъвкавата опция, ChatGPT. Строгите ограничения на Bing забраняват много задачи. Като алтернатива, ChatGPT разполага с гъвкава платформа, която произвежда много различни резултати в зависимост от вашите подкани

Ето ChatGPT ролева игра като измислен герой.

И ето го Bing Chat, който отказва да играе „неморална“ личност.

Кодовете с отворен код позволяват на стартиращите компании да се присъединят към надпреварата с изкуствен интелект. Те ги интегрират в своите приложения, вместо да изграждат езикови модели от нулата, спестявайки огромни ресурси. Дори независими програмисти експериментират с кодове с отворен код.

Отново непатентованият софтуер помага за напредъка на AI, но масовото пускане на лошо обучени, но сложни системи носи повече вреда, отколкото полза. Мошениците бързо злоупотребяват с уязвимостите. Те дори могат да обучат незащитени инструменти за изкуствен интелект да извършват незаконни дейности.

Въпреки тези рискове технологичните компании ще продължат да пускат нестабилни бета версии на управлявани от AI платформи. Състезанието с изкуствен интелект награждава скоростта. Вероятно ще разрешат грешки на по-късна дата, отколкото забавяне на пускането на нови продукти.

5. Генеративният AI има ниски бариери за навлизане

AI инструментите намаляват бариерите за навлизане на престъпления. Киберпрестъпниците изготвят спам имейли, пишат злонамерен код и създават фишинг връзки, като ги използват. Те дори не се нуждаят от технически опит. Тъй като AI вече има достъп до огромни набори от данни, потребителите просто трябва да го подмамят да произведе вредна, опасна информация.

OpenAI никога не е проектирал ChatGPT за незаконни дейности. Дори има насоки срещу тях. Още мошеници почти мигновено получиха зловреден софтуер за кодиране на ChatGPT и писане на фишинг имейли.

Въпреки че OpenAI бързо разреши проблема, той подчертава важността на регулирането на системата и управлението на риска. AI се развива по-бързо, отколкото някой е очаквал. Дори технологичните лидери се притесняват, че тази свръхинтелигентна технология може да причини огромни щети в неподходящи ръце.

6. AI все още се развива

AI все още се развива. Докато използването на AI в кибернетиката датира от 1940 г, модерни системи за машинно обучение и езикови модели се появиха едва наскоро. Не можете да ги сравните с първите реализации на AI. Дори относително усъвършенствани инструменти като Siri и Alexa бледнеят в сравнение с чатботовете, задвижвани от LLM.

Въпреки че може да са иновативни, експерименталните функции създават и нови проблеми. Високи злополуки с технологии за машинно обучение варират от погрешни SERPs на Google до предубедени чатботове, бълващи расови обиди.

Разбира се, разработчиците могат да коригират тези проблеми. Само имайте предвид, че мошениците няма да се поколебаят да експлоатират дори привидно безобидни грешки - някои щети са необратими. Така че бъдете внимателни, когато проучвате нови платформи.

7. Мнозина все още не разбират AI

Докато широката публика има достъп до сложни езикови модели и системи, само малцина знаят как работят. Хората трябва да спрат да третират ИИ като играчка. Същите чатботове, които генерират мемове и отговарят на любопитни факти, също масово кодират вируси.

За съжаление централизираното обучение с AI е нереалистично. Глобалните технологични лидери се фокусират върху пускането на системи, управлявани от AI, а не върху безплатни образователни ресурси. В резултат на това потребителите получават достъп до стабилни, мощни инструменти, които едва разбират. Обществото не може да се справи с надпреварата с ИИ.

Вземете ChatGPT като пример. Киберпрестъпниците злоупотребяват с неговата популярност, като мамят жертвите шпионски софтуер, маскиран като ChatGPT приложения. Нито една от тези опции не идва от OpenAI.

8. Хакерите с черни шапки могат да спечелят повече от хакерите с бели шапки

Хакерите с черни шапки обикновено имат да печелят повече от етичните хакери. Да, тестването на писалка за глобални технологични лидери се заплаща добре, но само процент от специалистите по киберсигурност намират тези работни места. Повечето работят на свободна практика онлайн. Платформи като HackerOne и Bugcrowd платете няколкостотин долара за обикновени грешки.

Като алтернатива мошениците правят десетки хиляди, като се възползват от несигурността. Те могат да изнудват компании чрез изтичане на поверителни данни или да извършат кражба на самоличност с кражба Лична информация (PII).

Всяка институция, малка или голяма, трябва да внедри системите за ИИ правилно. Противно на общоприетото схващане, хакерите надхвърлят технологичните стартиращи фирми и малките и средни предприятия. Някои от най исторически нарушения на данните през последното десетилетие включват Facebook, Yahoo! и дори правителството на САЩ.

Защитете се от рисковете за сигурността на AI

Имайки предвид тези точки, трябва ли да избягвате изцяло AI? Разбира се, че не. AI е присъщо аморален; всички рискове за сигурността произтичат от хората, които действително ги използват. И те ще намерят начини да използват AI системи, без значение колко далеч се развиват.

Вместо да се страхувате от заплахите за киберсигурността, които идват с AI, разберете как можете да ги предотвратите. Не се притеснявайте: простите мерки за сигурност помагат много. Поддържането на предпазливост към сенчести AI приложения, избягването на странни хипервръзки и гледането на AI съдържание със скептицизъм вече се бори с няколко риска.