Всеки си мисли, че може да забележи дълбоко фалшиво видео, но бързото подобряване на технологията, включително инструментите за изкуствен интелект, прави разпознаването на фалшиво видео по-трудно от всякога.

Ключови изводи

  • Deepfakes представляват значителни заплахи за обществото, включително разпространение на дезинформация, увреждане на репутацията чрез представяне под чужда самоличност и подклаждане на конфликт за националната сигурност.
  • Докато AI технологията предлага инструменти за откриване на deepfake, те не са перфектни и човешката дискретност остава от решаващо значение при идентифицирането на deepfake.
  • Хората и инструментите за откриване на AI имат различни силни и слаби страни при идентифицирането на дълбоки фалшификати и комбинирането на техните способности може да подобри процента на успеваемост при откриването и смекчаването на опасностите от deepfake технология.

Deepfakes застрашават всеки аспект на обществото. Нашата способност да идентифицираме фалшиво съдържание е от решаващо значение за анулирането на дезинформация, но с подобряването на AI технологията на кого можем да се доверим за откриване на дълбоки фалшификати: човек или машина?

instagram viewer

Опасностите от Deepfakes

С напредването на AI технологията, опасностите от deepfakes представляват нарастваща заплаха за всички нас. Ето кратко резюме на някои от най-належащите проблеми, които създават deepfakes:

  • дезинформация: Deepfaked видеоклипове и гласови записи могат да разпространяват дезинформация, като фалшиви новини.
  • Имитация: Като се представят за отделни лица, deepfakes могат да навредят на репутацията на хората или да заблудят всеки, с когото са познати.
  • Национална сигурност: Очевидният сценарий за края на света с deepfakes е изфабрикувани кадри или аудио на глобален лидер, който подклажда конфликт.
  • Граждански вълнения: Измамните кадри и аудиозаписи също могат да бъдат използвани от партиите за разпалване на гняв и граждански вълнения сред определени групи.
  • Кибер защита: Киберпрестъпниците вече използват инструменти за клониране на глас чрез изкуствен интелект, за да се насочват към лица с убедителни съобщения от хора, които познават.
  • Поверителност и съгласие: Злонамереното използване на deepfakes заема образа на лица без тяхното съгласие.
  • Доверие и увереност: Ако не можете да разграничите истината от измамата, точната информация става също толкова ненадеждна.

Deepfakes само ще станат по-убедителни, така че се нуждаем от надеждни инструменти и процеси за откриването им. AI предоставя един такъв инструмент под формата на модели за откриване на deepfake. Въпреки това, като алгоритми, предназначени да идентифицират генерирано от AI писане, инструментите за откриване на deepfake не са перфектни.

В този момент човешката дискретност е единственият друг инструмент, на който можем да разчитаме. И така, по-добри ли сме от алгоритмите в идентифицирането на deepfakes?

Могат ли алгоритмите да откриват Deepfakes по-добре от хората?

Deepfakes са достатъчно сериозна заплаха, че технологичните гиганти и изследователски групи отделят огромни ресурси за изследвания и разработки. През 2019 г. компании като Meta, Microsoft и Amazon предложиха $1 000 000 награди по време на Предизвикателство за откриване на Deepfake за най-точния модел на откриване.

Най-добре представящият се модел беше 82,56% точен спрямо набор от данни от публично достъпни видеоклипове. Въпреки това, когато същите модели бяха тествани срещу „набор от данни за черна кутия“ от 10 000 невиждани видеоклипа, моделът с най-добри резултати беше само 65,18% точен.

Също така имаме много проучвания, анализиращи ефективността на инструментите за откриване на AI deepfake срещу хора. Разбира се, резултатите варират от едно проучване до следващо, но като цяло хората са равни или превъзхождат успеваемостта на инструментите за откриване на дълбоки фалшификати.

Едно проучване от 2021 г., публикувано на PNAS установи, че "обикновените човешки наблюдатели" са постигнали малко по-висока степен на точност от водещите инструменти за откриване на дълбоки фалшификати. Проучването обаче установи също, че хората участници и AI моделите са податливи на различни видове грешки.

Интересното е, че изследване, проведено от Университетът в Сидни откри, че човешкият мозък несъзнателно е по-ефективен при забелязване на дълбоки фалшификати, отколкото нашите съзнателни усилия.

Откриване на визуални улики в Deepfakes

Науката за дълбоко откриване на фалшификати е сложна и необходимият анализ варира в зависимост от естеството на заснетия материал. Например, скандалното дълбоко фалшиво видео на севернокорейския лидер Ким Чен-ун от 2020 г. е основно видео с говореща глава. В този случай най-ефективният метод за откриване на deepfake може да бъде анализирането на виземи (движения на устата) и фонеми (фонетични звуци) за несъответствия.

Човешки експерти, случайни зрители и алгоритми могат да извършват този вид анализ, дори ако резултатите варират. The MIT дефинира осем въпроса за помощ идентифицирайте deepfake видеоклипове:

  • Обърнете внимание на лицето. Манипулациите от висок клас DeepFake почти винаги са трансформации на лицето.
  • Обърнете внимание на бузите и челото. Изглежда ли кожата твърде гладка или твърде набръчкана? Състаряването на кожата подобно ли е на остаряването на косата и очите? DeepFakes може да не съответстват на някои измерения.
  • Обърнете внимание на очите и веждите. Появяват ли се сенки на места, които бихте очаквали? DeepFakes може да не успее да представи напълно естествената физика на дадена сцена.
  • Обърнете внимание на очилата. Има ли отблясъци? Има ли твърде много отблясъци? Променя ли се ъгълът на отблясъците, когато човекът се движи? Още веднъж, DeepFakes може да не успее да представи напълно естествената физика на осветлението.
  • Обърнете внимание на окосмяването по лицето или липсата на такова. Това окосмяване по лицето изглежда ли истинско? DeepFakes може да добави или премахне мустаци, бакенбарди или брада. Въпреки това, DeepFakes може да не успее да направи трансформациите на космите по лицето напълно естествени.
  • Обърнете внимание на бенките по лицето. Изглежда ли бенката истинска?
  • Обърнете внимание на мигането. Лицето мига достатъчно или твърде много?
  • Обърнете внимание на движенията на устните. Някои дълбоки фалшификати се основават на синхронизиране на устни. Изглеждат ли движенията на устните естествено?

Най-новите инструменти за откриване на AI deepfake могат да анализират същите фактори, отново, с различна степен на успех. Учените по данни също непрекъснато разработват нови методи, като откриване на естествен кръвен поток в лицата на високоговорителите на екрана. Новите подходи и подобренията на съществуващите могат да доведат до това, че инструментите за откриване на дълбоки фалшификати с изкуствен интелект постоянно ще надминават хората в бъдеще.

Откриване на аудио улики в Deepfakes

Откриването на deepfake аудио е съвсем различно предизвикателство. Без визуалните знаци на видеото и възможността за идентифициране на аудиовизуални несъответствия, deepfake откриването разчита до голяма степен на аудио анализ (други методи като проверка на метаданни също могат да помогнат, в някои случаи).

Проучване, публикувано от Университетски колеж в Лондон през 2023 г. е установено, че хората могат да открият дълбоко фалшива реч в 73% от времето (английски и мандарин). Както при дълбоките фалшиви видеоклипове, хората, които слушат, често интуитивно откриват неестествени говорни модели в генерираната от AI реч, дори и да не могат да посочат какво изглежда неправилно.

Често срещаните признаци включват:

  • Мърморене
  • Липса на изразяване
  • Фонов или смущаващ шум
  • Вокални или говорни несъответствия
  • Липса на "пълнота" в гласовете
  • Прекалено скриптирана доставка
  • Липса на несъвършенства (фалстартове, корекции, прочистване на гърлото и др.)

Още веднъж, алгоритмите могат също да анализират речта за същите дълбоки фалшиви сигнали, но новите методи правят инструментите по-ефективни. Изследвания от USENIX идентифицирани модели в реконструкцията на гласовия тракт с изкуствен интелект, които не успяват да емулират естествената реч. Той обобщава, че AI гласовите генератори произвеждат аудио, съответстващо на тесни гласови трактове (приблизително с размера на сламка за пиене) без естествените движения на човешката реч.

По-ранни изследвания от Институт Хорст Гьорц анализира истинско и дълбоко фалшиво аудио на английски и японски, разкривайки фини разлики в по-високите честоти на истинската реч и дълбоките фалшиви.

Както гласовият тракт, така и високочестотните несъответствия са забележими за слушателите и моделите за откриване на AI. В случай на високочестотни разлики, AI моделите теоретично биха могли да станат все по-точни - въпреки че същото може да се каже и за AI deepfakes.

И хората, и алгоритмите са заблудени от Deepfakes, но по различни начини

Проучванията показват, че хората и най-новите инструменти за откриване на AI са способни по подобен начин да идентифицират deepfakes. Степента на успех може да варира между 50% и 90+%, в зависимост от параметрите на теста.

Като разширение, хората и машините също се заблуждават от дълбоки фалшификати в подобна степен. Най-важното обаче е, че ние сме податливи по различни начини и това може да бъде най-големият ни актив в справянето с опасностите от дълбоките фалшиви технологии. Комбинирането на силните страни на хората и инструментите за откриване на deepfake ще смекчи слабостите на всеки от тях и ще подобри процента на успех.

Например, MIT изследване установи, че хората са по-добри в идентифицирането на дълбоки фалшификати на световни лидери и известни личности, отколкото моделите на AI. Той също така разкри, че AI моделите се борят с кадри с множество хора, въпреки че предполага, че това може да е резултат от алгоритми, обучени върху кадри, включващи единични високоговорители.

Обратно, същото проучване установи, че AI моделите превъзхождат хората с нискокачествени кадри (размазани, зърнести, тъмни и т.н.), които могат да бъдат умишлено използвани за измама на зрителите. По същия начин, последните методи за откриване на AI, като наблюдение на кръвния поток в определени области на лицето, включват анализ, на който хората не са способни.

С разработването на повече методи способността на AI да открива признаци, които не можем, само ще се подобри, но също и способността му да мами. Големият въпрос е дали технологията за откриване на deepfake ще продължи да изпреварва самите deepfake.

Виждане на нещата по различен начин в епохата на Deepfakes

Инструментите за откриване на AI deepfake ще продължат да се подобряват, както и качеството на самото съдържание на deepfake. Ако способността на AI да заблуждава изпреварва способността му да открива (както е с текст, генериран от AI), човешката дискретност може да е единственият инструмент, който ни остава, за да се борим с deepfakes.

Всеки има отговорност да научи признаците на дълбоките фалшификати и как да ги забележи. Освен че се предпазваме от измами и заплахи за сигурността, всичко, което обсъждаме и споделяме онлайн, е уязвимо за дезинформация, ако загубим представа за реалността.