Технологията Deepfake може да бъде забавна за игра, но нейният потенциал за вреда е значителен. Ето какво може да донесе бъдещето на deepfakes.

Издайническите признаци на дълбоко фалшиво изображение преди бяха лесни за забелязване, но генеративният AI ни кара да поставяме под въпрос почти всичко, което виждаме и чуваме сега. С всеки нов AI модел, който се пуска, издайническите признаци на фалшиво изображение намаляват и за да добавите към объркване, вече можете да създавате дълбоки фалшиви видеоклипове, гласови клонинги на вашите близки и да измисляте фалшиви статии само с секунди.

За да не бъдете заблудени от AI deepfakes, си струва да знаете какви опасности представляват те.

Еволюцията на Deepfakes

Deepfake показва човек, който прави нещо, което никога не се е случвало в реалния живот. Това е напълно фалшиво. Ние се смеем на deepfakes, когато се споделят в интернет като мем или шега, но много малко хора намират за смешно, когато се използват, за да ни подведат.

В миналото дълбоките фалшиви изображения се създаваха чрез правене на съществуваща снимка и промяната й в софтуер за редактиране на изображения като Photoshop. Но това, което отличава AI deepfake е, че може да се генерира от нулата с помощта на алгоритми за дълбоко обучение.

instagram viewer

The Речник Merriam-Webster дефинира deepfake като:

Изображение или запис, който е бил убедително променен и манипулиран, за да представи погрешно някого, че прави или казва нещо, което всъщност не е направено или казано.

Но с напредъка на AI технологията това определение започва да изглежда остаряло. С използването на AI инструменти, deepfakes вече включват изображения, текст, видеоклипове и гласово клониране. Понякога всичките четири режима на генериране на AI се използват наведнъж.

Тъй като това е автоматизиран процес, който е невероятно бърз и евтин за използване, той е идеалният инструмент за изхвърляне deepfakes със скорост, каквато не сме виждали досега - всичко това, без да е необходимо да знаете нищо за това как да редактирате снимки, видеоклипове или аудио.

Големите опасности от AI Deepfakes

Домакин на AI видео генератори вече съществуват, заедно с много AI гласови генератори. Добавете a голям езиков модел като GPT-4 и имате рецепта за създаване на най-правдоподобните дълбоки фалшификати, които сме виждали в съвременната история досега.

Да сте наясно с различните видове AI deepfakes и как те могат да бъдат използвани, за да ви подмамят, е един от начините да избегнете подвеждането. Ето само няколко сериозни примера за това как AI deepfake технологията представлява реална заплаха.

1. AI кражба на самоличност

Може да сте ги виждали. Сред първите наистина вирусни AI deepfakes, които се разпространиха по света, бяха изображение на Доналд Тръмп, който е арестуван, и едно на папа Франциск в бяло пухено яке.

Макар че човек изглежда като невинно преосмисляне на това, което известна религиозна фигура може да облече в един хладен ден в Рим; другото изображение, показващо политическа фигура в сериозно положение със закона, има много по-големи последици, ако се приеме за реално.

Досега хората са се насочвали главно към известни личности, политически фигури и други известни личности, когато са създавали AI deepfakes. Отчасти това е така, защото известни хора имат много техни снимки в интернет, което вероятно е помогнало за обучението на модела на първо място.

В случай на AI генератор на изображения като Midjourney - използван както в deepfake на Тръмп, така и на папата - потребителят просто трябва да въведе текст, описващ това, което иска да види. Могат да се използват ключови думи за определяне на художествения стил, като например снимка или фотореализъм, а резултатите могат да бъдат фино настроени чрез увеличаване на резолюцията.

Можете също толкова лесно научете се да използвате Midjourney и изпробвайте това сами, но поради очевидни морални и правни причини трябва да избягвате да публикувате тези изображения публично.

За съжаление това, че сте средностатистическо, неизвестно човешко същество, също няма да гарантира, че сте в безопасност от AI deepfakes.

Проблемът се крие в ключова характеристика, предлагана от генераторите на изображения с изкуствен интелект: възможността да качите свое собствено изображение и да го манипулирате с AI. И инструмент като Прерисуване в DALL-E 2 може да разшири съществуващо изображение отвъд неговите граници, като въведете текстова подкана и опишете какво друго искате да генерирате.

Ако някой друг направи това с вашите снимки, опасностите може да са значително по-големи от deepfake на папата в бяло сако - те могат да го използват навсякъде, преструвайки се, че сте вие. Докато повечето хора обикновено използват AI с добри намерения, има много малко ограничения, които спират хората да го използват за причиняване на вреда, особено в случаи на кражба на самоличност.

2. Измами с Deepfake Voice Clone

С помощта на AI дълбоките фалшификати преминаха граница, за която повечето от нас не бяха подготвени: фалшиви гласови клонинги. Само с малко оригинално аудио – може би от видеоклип в TikTok, който някога сте публикували, или видеоклип в YouTube, в който се появявате – AI модел може да възпроизведе вашия единствен и единствен глас.

Едновременно е странно и плашещо да си представите да получите телефонно обаждане, което звучи точно като член на семейството, приятел или колега. Гласовите клонинги Deepfake са достатъчно сериозна загриженост, че Федерална търговска комисия (FTC) е издал предупреждение за това.

Не вярвайте на гласа. Обадете се на човека, който предполагаемо се е свързал с вас, и проверете историята. Използвайте телефонен номер, за който знаете, че е техен. Ако не можете да се свържете с любимия човек, опитайте се да се свържете с него чрез друг член на семейството или негови приятели.

Washington Post съобщи случай на двойка на 70 години, която е получила телефонно обаждане от някой, който звучи точно като техния внук. Той беше в затвора и спешно се нуждаеше от пари за гаранция. Тъй като нямаха друга причина да се съмняват с кого говорят, те продължиха и предадоха парите на измамника.

Не само по-възрастното поколение е изложено на риск, Гардиън съобщи друг пример за банков мениджър, който е одобрил транзакция на стойност 35 милиона долара след поредица от „дълбоко фалшифицирани обаждания“ от някой, за когото са смятали, че е банков директор.

3. Масово произвеждани фалшиви новини

Големи езикови модели, като ChatGPT са много, много добри в създаването на текст, който звучи точно като човек, и в момента нямаме ефективни инструменти, за да открием разликата. В погрешни ръце фалшивите новини и теориите на конспирацията ще бъдат евтини за производство и ще отнемат повече време за развенчаване.

Разпространението на дезинформация, разбира се, не е нещо ново, а изследователска статия публикувано на arXiv през януари 2023 г. обяснява, че проблемът се крие в това колко лесно е да се увеличи мащабът на изхода с AI инструменти. Те го наричат ​​„кампании за влияние, генерирани от изкуствен интелект“, които според тях биха могли например да бъдат използвани от политици за изнасяне на техните политически кампании.

Комбинирането на повече от един източник, генериран от AI, създава дълбок фейк на високо ниво. Като пример, AI модел може да генерира добре написана и убедителна новинарска история, която да върви заедно с фалшивия образ на арестувания Доналд Тръмп. Това му дава по-голяма легитимност, отколкото ако изображението беше споделено само по себе си.

Фалшивите новини също не се ограничават до изображения и писане, развитието на генерирането на AI видео означава, че виждаме да се появяват повече дълбоки фалшиви видеоклипове. Ето един от Робърт Дауни младши, присаден към видеоклип на Илън Мъск, публикуван от YouTube канал Deepfakery.

Създаването на deepfake може да бъде толкова просто, колкото изтеглянето на приложение. Можете да използвате приложение като TokkingHeads за превръщане на неподвижни изображения в анимирани аватари, което ви позволява да качите свое собствено изображение и аудио, за да изглежда, че човекът говори.

В по-голямата си част е забавно и забавно, но има и потенциал за проблеми. Това ни показва колко лесно е да използваме нечий образ, за ​​да изглежда така, сякаш този човек е изрекъл думи, които никога не е произнасял.

Не се заблуждавайте от AI Deepfake

Deepfakes могат да бъдат разгърнати бързо на много ниска цена и с нисък опит или необходима изчислителна мощност. Те могат да приемат формата на генерирано изображение, гласов клонинг или комбинация от генерирани от AI изображения, аудио и текст.

Преди беше много по-трудно и трудоемко да се създаде deepfake, но сега, с много приложения с изкуствен интелект, почти всеки има достъп до инструментите, използвани за създаване на deepfake. Тъй като AI deepfake технологията става все по-напреднала, струва си да следите отблизо опасностите, които крие.