Читатели като вас помагат в подкрепа на MUO. Когато правите покупка чрез връзки на нашия сайт, ние може да спечелим комисионна за партньор. Прочетете още.

Изкуственият интелект (AI) има потенциала да промени самата природа на нашето общество. И ако инструментите за изкуствен интелект, с които разполагаме в момента, са някаква индикация за това, което предстои, имаме какво да очакваме.

Ние също трябва да бъдем предпазливи. А именно, въоръжаването на AI от киберпрестъпници и други заплахи. Това не е теоретично безпокойство и дори AI генераторите на изображения не са имунизирани срещу злоупотреби.

Какво представляват AI генераторите на изображения? Как работят?

Ако някога сте използвали AI генератор на изображения, имате доста добра представа за какво става въпрос. Дори ако никога не сте използвали такъв, най-вероятно сте попадали на генерирани от AI изображения в социалните медии и другаде. Софтуерът, който е популярен днес, работи на много прост принцип: потребителят въвежда текста, а AI генерира изображение въз основа на този текст.

instagram viewer

Това, което се случва под капака, е много по-сложно. AI стана много по-добър през последните години и повечето генератори на текст към изображение в днешно време са така наречените дифузионни модели. Това означава, че те са "обучени" в продължение на дълъг период от време върху огромен брой текстове и изображения, което прави творенията им толкова впечатляващи и зашеметяващо реалистични.

Това, което прави тези AI инструменти още по-впечатляващи, е фактът, че те не просто модифицират съществуващи изображения или комбинират хиляди изображения в едно, но също така създават нови, оригинални изображения от нулата. Колкото повече хора използват тези генератори на текст към изображение, толкова повече информация получават и толкова по-добри стават техните творения.

Някои от най-известните AI генераторите на изображения са Dream от WOMBO, DALL-E, Stable Diffusion, Midjourney, DeepAI, Fotor и Craiyon. Нови се появяват отляво и отдясно, а технологичните гиганти – включително Google – пускат свои собствени, така че можем само да спекулираме какво ще донесе бъдещето.

4 начина, по които заплахите използват генераторите на изображения с изкуствен интелект

Като почти всяка технология, генераторите на изображения с изкуствен интелект могат да бъдат злоупотребявани от злонамерени актьори. Всъщност те вече се използват за всякакви гнусни цели. Но какви точно измами и кибератаки може да извърши един престъпник с помощта на AI генератори на изображения?

1. Социално инженерство

Едно очевидно нещо, което участниците в заплахата могат да направят с генераторите на AI изображения е занимават се със социално инженерство; например създаване на фалшиви профили в социалните медии. Някои от тези програми могат да създадат невероятно реалистични изображения, които изглеждат точно като истински снимки на реални хора, и измамник може да използва тези фалшиви профили в социалните медии за сом.

За разлика от снимките на истински хора, тези, генерирани от AI, не могат да бъдат открити чрез обратно търсене на изображения и киберпрестъпникът не трябва да работи с ограничен брой снимки, за да измамят целта си - използвайки AI, те могат да генерират колкото пожелаят, изграждайки убедителна онлайн идентичност от драскотина.

Но има примери от реалния живот на заплахи, които използват генератори на AI изображения, за да измамят хората. През април 2022 г. TechTalks блогърът Бен Дикинсън получи имейл от адвокатска кантора, в който се твърди, че е използвал изображение без разрешение. Адвокатите изпратиха по имейл съобщение за нарушение на авторските права по DMCA, като казаха на Дикинсън, че трябва да се свърже обратно с техен клиент или да премахне изображението.

Дикинсън потърси в Google адвокатската кантора и намери официалния уебсайт. Всичко изглеждаше напълно законно; сайтът дори имаше снимки на 18 адвокати, заедно с техните биографии и акредитиви. Но нищо от това не беше истинско. Всички снимки бяха генерирани от AI и бяха изпратени предполагаемите известия за нарушаване на авторски права от някой, който иска да изнуди препратки от нищо неподозиращи блогъри, като част от неетично, черно шапка SEO (оптимизация за търсачки) стратегия.

2. Благотворителни измами

Когато разрушителните земетресения удариха Турция и Сирия през февруари 2023 г., милиони хора по света изразиха своята солидарност с жертвите, като дариха дрехи, храна и пари.

Според доклад от Би Би Си, измамниците се възползваха от това, използвайки AI за създаване на реалистични изображения и събиране на дарения. Един измамник показа генерирани от AI изображения на руини в TikTok Live, като моли своите зрители за дарения. Друг публикува генерирано от AI изображение на гръцки пожарникар, който спасява ранено дете от руините, и помоли последователите си за дарения в биткойни.

Човек може само да си представи какъв тип благотворителни измами ще извършват престъпниците с помощта на AI в бъдеще, но е безопасно да се предположи, че те само ще станат по-добри в злоупотребата с този софтуер.

3. Deepfekes и дезинформация

Правителства, активистки групи и мозъчни тръстове отдавна предупреждават за опасности от дълбоки фалшификати. Генераторите на AI изображения добавят още един компонент към този проблем, като се има предвид колко реалистични са техните творения. Всъщност в Обединеното кралство дори има комедийно шоу, наречено Deep Fake Neighbor Wars, което намира хумор в невероятни двойки на знаменитости. Какво би попречило на дезинформационен агент да създаде фалшив образ и да го популяризира в социалните медии с помощта на ботове?

Това може да има последици в реалния живот, както почти се случи през март 2022 г., когато фалшиво видео, изобразяващо украинския президент Володимир Зеленски, който казва на украинците да се предадат, се разпространява онлайн, на NPR. Но това е само един пример, защото възможностите са почти безкрайни и има безброй начини a заплахата може да навреди на нечия репутация, да популяризира фалшив разказ или да разпространи фалшиви новини с помощта на AI.

4. Рекламна измама

TrendMicro изследователи откриха през 2022 г., че измамниците използват генерирано от AI съдържание, за да създават подвеждащи реклами и да популяризират сенчести продукти. Те създадоха изображения, които предполагаха, че популярни знаменитости използват определени продукти, и проведоха рекламни кампании въз основа на тези изображения.

Например, една реклама за „възможност за финансови консултации“ представя милиардера Илон Мъск, основателят и главен изпълнителен директор на Tesla. Разбира се, Мъск никога не е одобрявал въпросния продукт, но представените кадри, генерирани от AI, го карат да изглежда по този начин, вероятно примамвайки нищо неподозиращите зрители да кликнат върху рекламите.

AI и киберсигурността: сложен проблем, с който трябва да се справим

В бъдеще правителствените регулатори и експертите по киберсигурност вероятно ще трябва да работят заедно, за да се справят с възникващата заплаха от киберпрестъпления, задвижвани от AI. Но как можем да регулираме AI и да защитим обикновените хора, без да задушаваме иновациите и да ограничаваме цифровите свободи? Този въпрос ще стои голям за години напред.

Докато няма отговор, направете каквото можете, за да се защитите: внимателно проверявайте всяка информация, която виждате онлайн, избягвайте сенчести уебсайтове, използвайте безопасен софтуер, поддържайте устройствата си актуални и се научете да използвате изкуствен интелект за вашите предимство.