Generative AI е нож с две остриета, използван за нападение и защита срещу киберпрестъпления.

Генеративният изкуствен интелект (AI) е в светлината на прожекторите напоследък. Задвижван от изкуствен интелект чатбот ChatGPT и други системи, поддържащи обработка на естествен език, като VALL-E, донесоха генеративния изкуствен интелект на широката общественост и отприщиха неговите предимства и лоши ефекти.

Едно от основните опасения относно генеративния AI е фактът, че той може да се използва за надграждане на злонамерени експлойти и за създаване на по-сложни кибератаки. И така, как хакерите използват генеративен AI в своите атаки и какво означава това за бъдещето на киберсигурността?

Какво е Generative AI и как работи?

Както подсказва името му, генеративният AI е вид AI, който е способен да генерира ново съдържание - изображения, текст, аудио и синтетични данни.

Един известен пример е ChatGPT, базиран на изкуствен интелект чатбот, с който можете да водите човешки разговори и вземете някои превъзходни препоръки за филми - това е, ако не можете да измислите по-смислена мисия да изпратите ChatGPT На.

instagram viewer

Нека ви дадем една или две идеи – можете накарайте ChatGPT да напише всички тези трудни имейли вместо вас, използвайте ChatGPT като инструмент за превод, и дори превърнете ChatGPT във вашия помощник за планиране на здравословно хранене. Като цяло, за няколко секунди този чатбот може да измисли привидно ново, убедително съдържание и да го представи по доста политически коректен начин.

Въпреки това, генеративният AI все още не може да бъде креативен по начин, по който човек може. Това е така, защото той използва неконтролирани и полуконтролирани алгоритми за машинно обучение, за да обработва ужасно много данни и да генерира персонализирани изходи.

Например, ако искате да поръчате картина, подобна на Пикасо, от генеративен AI като DALL-E 2, ще трябва да въведете вашето описание в определено поле – да кажем „Герника на Пикасо, но с котенца“ – и останете за няколко секунди. През това време AI ще прилага всички специфични черти на стила на художника, който е научил преди, добавете котенца за добра мярка и измислете нещо оригинално - имаме тази снимка, която можете да видите леко по-горе.

Как хакерите използват Generative AI в своите атаки?

Лошите винаги са били привлечени от добрите алгоритми. Така че не е изненадващо, че използват генеративен AI, за да засилят своите атаки. Чрез използване на методи за машинно обучение, като обучение с подсилване и генеративни състезателни мрежи, киберпрестъпниците могат да измислят нови, по-сложни кибератаки, които могат да пробият стандартните кибер защити.

Един пример за това извращение е „модерният“ чатбот на OpenAI, като ChatGPT се използва от киберпрестъпници за писане на зловреден софтуер. В началото ChatGPT изглеждаше като забавление и игри, но сега е изложено като една от основните заплахи за сигурността и поверителността. Ако обичате да чатите с ChatGPT, разумно е да внимавате за неща, които киберпрестъпниците могат да направят с ChatGPT.

Накратко, ChatGPT и други генеративни AI инструменти направиха живота по-лесен за киберпрестъпниците и по-труден за екипите по сигурността. Някои от начините, по които участниците в киберзаплахите използват AI в своите атаки, включват:

  • Изграждане на по-добър, по-сложен зловреден софтуер: В ръцете на хакерите генеративният AI може да се използва за генериране на трудни за откриване разновидности на зловреден софтуер и извършване на атаки. В комбинация с AI модели, зловредният софтуер може да прикрие намерението си, докато не изпълни лошата си цел.
  • Писане на базирани на изкуствен интелект персонализирани фишинг имейли: С помощта на генеративен изкуствен интелект фишинг имейлите вече нямат издайническите признаци на измама – като лош правопис, лоша граматика и липса на контекст. Плюс това, с AI като ChatGPT, заплахите могат да стартират фишинг атаки с безпрецедентна скорост и мащаб.
  • Генериране на дълбоки фалшиви данни: Тъй като може да създаде убедителни имитации на човешки дейности - като писане, реч и изображения – генериращият AI може да се използва в измамни дейности като кражба на самоличност, финансови измами и дезинформация.
  • Кракване на CAPTCHA и отгатване на парола: Използвана от сайтове и мрежи за разресване на ботове, търсещи неоторизиран достъп, CAPTCHA вече може да бъде заобиколена от хакери. Използвайки ML, те могат да изпълняват и други повтарящи се задачи, като отгатване на пароли и атаки с груба сила.
  • Саботиране на ML при откриване на киберзаплахи: Ако системата за сигурност е затрупана с твърде много фалшиви положителни резултати, хакер може да я изненада с истинска кибератака.

Как можем да се борим с генериращата AI заплаха?

Тъй като кибератаките стават все по-сложни и последиците от тях по-сериозни, традиционните системи за сигурност ще се превърнат в неща от отминалата ера. Със способността да се учи от предишни атаки и да се адаптира, AI е безценен актив както за киберпрестъпниците, така и за техните противници.

Използването на AI в киберсигурността има някои сериозни предимства като по-бързо откриване на заплахи, идентифициране на заплахи и реакция на заплахи – така че борбата с огъня с огън изглежда като правилния отговор. Преди киберпрестъпниците да се научат как да нанасят опустошителни удари на лица и компании в цялата страна в света професионалистите по киберсигурност трябва да научат своите базирани на AI системи да се предпазват от тези атаки.

Не всичко обаче зависи от AI. В края на краищата можем също така да подобрим собствената си сигурност и поверителност с изпитани методи като многофакторно удостоверяване (MFA), биометрична технология, използване на мениджър на пароли, използване на най-добре криптирани инструменти за сътрудничествои добър, стар здрав разум.

Борба с AI с AI

И така, ще станем ли свидетели на AI войни за киберсигурност в близко бъдеще? Е, надяваме се, че не. Въпреки това, тъй като AI продължава да напредва и става достъпен за всички – както за киберпрестъпници, така и за специалисти по киберсигурност – ролята на AI и ML ще стане по-голяма през идните години.