Изкуственият интелект може да се използва за добро или за зло. Ето само няколко начина, по които помага на хакери и измамници в момента.
Много технологични ентусиасти са развълнувани от потенциалните възможности за изкуствен интелект, но киберпрестъпниците също търсят тази технология, за да им помогне в техните подвизи. AI е завладяваща област, но също така може да ни даде повод за безпокойство. И така, по какви начини AI може да помогне на киберпрестъпниците?
1. Писане на зловреден софтуер
Изкуственият интелект е усъвършенстван тип технология, така че някои може да не намират за изненадващо, че може да се използва за писане на зловреден софтуер. Злонамереният софтуер е термин за използвани злонамерени програми (комбинация от думите „злонамерен“ и „софтуер“) при хакване и може да се появи в много форми. Но за да използвате зловреден софтуер, той първо трябва да бъде написан.
Не всички киберпрестъпници имат опит в кодирането, а други просто не искат да отделят време за писане на нови програми. Тук AI може да бъде полезен.
В началото на 2023 г. беше забелязано, че ChatGPT може да се използва за писане на зловреден софтуер за незаконни атаки. Изключително популярният ChatGPT на OpenAI се захранва от AI инфраструктура. Този чатбот може да прави много полезни неща, но също така се използва от незаконни лица.
В един конкретен случай потребител публикува в хакерски форум, твърдейки, че е имал написа базирана на Python програма за зловреден софтуер, използвайки ChatGPT.
ChatGPT може ефективно да автоматизира процеса на писане на злонамерени програми. Това отваря вратата за начинаещи киберпрестъпници, които нямат много технически познания.
ChatGPT (или поне най-новата му версия) може да пише само основни и понякога бъгови зловреден софтуер, а не сложен код, който представлява сериозни заплахи. Това обаче не означава, че AI не може да се използва за писане на зловреден софтуер. Като се има предвид, че настоящ чатбот с изкуствен интелект може да създава основни злонамерени програми, може да не мине много време преди да видим по-отвратителен зловреден софтуер, произхождащ от системи с изкуствен интелект.
2. Кракване на пароли
Паролите често стоят като един ред данни, защитаващ нашите акаунти и устройства. Така че не е изненадващо, че много киберпрестъпници се опитват да разбият пароли, за да получат достъп до нашите лични данни.
Кракването на пароли вече е популярно в киберпрестъпността и има различни техники, които злонамереният играч може да използва, за да разкрие паролата на целта. Различните техники имат различен процент на успеваемост, но AI може да направи шанса за разбиване на парола много по-висок.
Концепцията за AI кракери на пароли в никакъв случай не е научна фантастика. Всъщност, ZDNet съобщи, че експерти по киберсигурност са открили, че над половината от често използваните пароли могат да бъдат разбити за по-малко от минута. Статията, цитирана от a Доклад на Home Security Heroes, който заяви, че базиран на изкуствен интелект инструмент за кракване, наречен PassGAN, може да разбие 51 процента от обичайните пароли за по-малко от минута и 71 процента за по-малко от ден.
Тези цифри показват колко опасно може да бъде AI кракването на пароли. Със способността да разбиете повечето обикновени пароли за по-малко от 24 часа, няма представа какво може да направи един киберпрестъпник, използвайки такъв инструмент.
3. Провеждане на социално инженерство
Тактиката на киберпрестъпността известен като социално инженерство взема орди жертви всяка седмица и е основен проблем във всяка част на света. Този метод използва манипулация, за да принуди жертвите да се съобразят с изискванията на нападателя, често без дори да осъзнават, че са насочени
AI може да помогне при атаки със социално инженерство, като формулира съдържанието, използвано в злонамерени комуникации, като фишинг имейли и текстове. Дори при днешното ниво на напредък на AI, не би било трудно да помолите чатбот да формулира убедителен или убедителен сценарий, който киберпрестъпникът след това да използва срещу своите жертви. Тази заплаха не е останала незабелязана и хората вече са загрижени за предстоящите опасности.
В този смисъл изкуственият интелект също би могъл да помогне злонамерените комуникации да изглеждат по-професионални и официални чрез изглаждане на правописни и граматически грешки. Такива грешки често се смятат за възможни признаци на злонамерена дейност, така че може да помогне на киберпрестъпниците, ако могат да напишат своето социално инженерно съдържание по-чисто и ефективно.
4. Откриване на уязвимости в софтуера
За да хакнат софтуерни програми, киберпрестъпниците често трябва да открият и използват уязвимост в сигурността. Тези уязвимости често възникват в резултат на грешки в кода на софтуера. Ако даден бъг остане неотстранен или дадено лице не актуализира редовно своите софтуерни програми (което често изглажда пропуските в сигурността), уязвимостите могат да представляват сериозен риск.
Киберпрестъпниците знаят това и затова са нащрек за пропуски. Вече има инструменти, които човек може да използва за намиране на уязвимости, като например комплект за експлоатация. Но използвайки AI, злонамереният актьор може да успее да подчертае много повече уязвимости, някои от които могат да бъдат използвани за причиняване на много щети.
Въпреки това, това AI приложение може да бъде полезно и за доставчиците на киберсигурност, както би могло помощ при намиране на уязвимости преди да бъдат експлоатирани. Възможността за бързо коригиране на пропуск може да отреже способността на злонамерените участници да го експлоатират, смекчавайки атаките като цяло.
5. Анализиране на откраднати данни
Данните са ценни като златото. днес, чувствителните данни се продават на пазарите в тъмната мрежа на постоянна основа, като някои злонамерени участници са готови да платят много висока цена, ако информацията е достатъчно полезна.
Но за да станат тези данни достъпни на тези пазари, те първо трябва да бъдат откраднати. Данните със сигурност могат да бъдат откраднати в малки количества, особено когато нападателят е насочен към самотни жертви. Но по-големите хакове могат да доведат до кражба на огромни бази данни. В този момент киберпрестъпникът трябва да определи каква информация в тази база данни е ценна.
Използвайки AI, процесът на подчертаване на ценна информация може да бъде рационализиран, като се намали времето, което отнема за злонамерен актьор да определи какво си струва да се продаде или, от друга страна, директно да се експлоатира от техните собствени ръка. Изкуственият интелект в основата си е свързан с учене, така че един ден може да стане лесно да се използва инструмент, задвижван от AI, за събиране на ценни чувствителни данни.
AI е обещаващ, но крие и много заплахи
Както в случая с повечето видове технологии, изкуственият интелект е бил и ще продължи да бъде експлоатиран от киберпрестъпници. Тъй като изкуственият интелект вече има някои незаконни възможности, наистина не се знае как киберпрестъпниците ще могат да напреднат в своите атаки, използвайки тази технология в близко бъдеще. Фирмите за киберсигурност може също да работят все повече с AI, за да се борят с подобни заплахи, но времето ще покаже как ще се развие тази.