Deepfakes и видеоклипове, генерирани от AI, остават тук. Но през последните няколко години те нараснаха в качеството и количеството, което кара много хора да се тревожат за националната сигурност и личната неприкосновеност.
И все пак, колкото и да се опитваха анонимните онлайн потребители да направят фалшивото си видео реалистично, те никога не биха могли да преминат през усъвършенствания софтуер за разпознаване на лица. Досега.
Измамни API за разпознаване на лица
Изследователи от университета Sungkyunkwan в Сувон, Южна Корея, тества качеството на настоящата технология deepfake. Те тестваха API и на Amazon, и на Microsoft, използвайки отворен код и често използван софтуер за генериране на дълбоко фалшиво видео, за да видят колко добре се представят.
Изследователите са използвали лицата на холивудски знаменитости. За да създаде солидни дълбоки фалшификации, софтуерът се нуждае от много висококачествени изображения от различни ъгли на едни и същи лица, които са много по -лесни за придобиване на знаменитости, вместо на обикновени хора.
Изследователите също решиха да използват API на Microsoft и Amazon като еталон за своето проучване, тъй като и двете компании предлагат услуги за разпознаване на лица на знаменитости. Те използваха публично достъпни набори от данни и създадоха малко над 8 000 дълбоки фалшификати. От всеки дълбоко фалшив видеоклип те извличат множество снимки на лица и го изпращат на API.
С Azure Cognitive Services на Microsoft изследователите успяха да заблудят системата 78 % от времето, използвайки deepfakes. Резултатите от Amazon бяха малко по -добри, като 68 % от изпратените лица бяха идентифицирани като реални.
Какво ще кажете за Deepfake детектори?
Deepfake детекторите работят горе -долу по същия начин, по който работят deepfake. Детекторите са софтуер, който е обучен с помощта на модели за машинно обучение за това как да открива дълбоко фалшиви видеоклипове.
Но вместо да се фокусират върху създаването на хиперреалистичен видеоклип, за да заблудят детекторите, дълбоките фалшификации вече могат да включват състезателни примери във всеки кадър, за да объркат системата на AI. Всъщност, дълбоко фалшивите атаки от този тип имат успех в диапазона от 78 до 99 процента.
Става все по -зле
Deepfakes са приложение за машинно обучение. За да създадете такъв, който дори да е убедителен, имате нужда от стотици изображения на лицето на един и същи човек от различни ъгли и показващи различни емоции.
Поради необходимостта от огромни количества данни, човек би си помислил, че само хора с голямо онлайн присъствие са изложени на риск, като знаменитости и политици. Но това вече не е така.
Според Deeptrace броят на дълбоко фалшивите онлайн се е увеличил с 330 процента за по -малко от година - от октомври 2019 г. до юни 2020 г. Да не говорим, че софтуерът и алгоритмите, използвани от производителите на дълбоки фалшификати, стават все по -силни и по -лесно достъпни и достъпни.
Кой е изложен на риск от Deepfakes?
Когато deepfakes за първи път стана мейнстрийм, първичен притесненията бяха за поверителността и националната сигурност. Хората се опасяваха, че на видеозаписи на политици и официални държавни служители вече не може да се вярва.
Но макар че би било безотговорно да се пренебрегне дълбоко фалшивата поза на риска за сигурността, множество проучвания установиха, че производителите на дълбоко фалшиви все още не са толкова заинтересовани да нарушават политиката. По -голямата част от видеоклиповете на deepfakes онлайн могат да бъдат разделени в две категории: забавни видеоклипове с интервюта на знаменитости и филми и порнографски материали.
Въпреки че неотдавнашното проучване беше проведено с лица на известни личности, за да се гарантира, че дълбоките фалшификации са с високо качество, за да заблудят API, това не означава, че не можете да правите дълбоки фалшификати с по -малко данни. Разбира се, те може да нямат шанс да заблудят усъвършенстваните системи за разпознаване на лица, но могат да бъдат достатъчно убедителни, за да излъжат други хора.
В днешно време дълбоките фалшификации на всеки със социално присъствие могат да бъдат направени убедително. Всичко, от което се нуждаят, са няколко ваши снимки и може би видеоклип, в който се появявате. Получената дълбока фалшификация може да е с ниско качество, но все пак е изпълнима и може да бъде вредна.
Бъдещето все още е неизвестно
Има много противоречиви прогнози относно състоянието на дълбоките фалшификати, тъй като те няма да изчезнат скоро.
Някои очакват апокалиптично кибер бъдеще, в което не можете да се доверите на кадри, на които попадате онлайн. Други са по -оптимистични, сравняват deepfakes с анимация и казват, че това може да има бъдеще в производството на съдържание.
Deepfakes стават все по -разпространени. Ето как те могат да застрашат поверителността ви онлайн и как да избегнат привличане.
Прочетете Напред
- Сигурност
- интернет
- Разпознаване на лица
- Онлайн поверителност
- Онлайн сигурност
Анина е писател на технологии на свободна практика и интернет сигурност в MakeUseOf. Тя започна да пише в киберсигурността преди 3 години с надеждата да я направи по -достъпна за обикновения човек. Увлечен по изучаването на нови неща и огромен глупак по астрономия.
Абонирайте се за нашия бюлетин
Присъединете се към нашия бюлетин за технически съвети, рецензии, безплатни електронни книги и изключителни оферти!
Щракнете тук, за да се абонирате