Фалшиви новини, deepfakes, подвеждащи изображения: всичко това може да бъде създадено с помощта на изкуствен интелект. Ето как AI означава, че дезинформацията се разпространява.

Изкуственият интелект (AI) сега играе роля в различни аспекти от живота ни. По-конкретно, генеративните AI инструменти като ChatGPT и други са нараснали значително. Това означава, че в бъдеще ще има изобилие от генерирано от AI съдържание.

Въпреки това, генеративният AI също така въвежда риск от генерирана от AI дезинформация. Неговите характеристики улесняват опортюнистични лица да разпространяват невярна информация. И така, нека проучим как генеративният AI се използва за дезинформация.

Потенциални рискове от генериращ AI за разпространение на дезинформация

Генеративният AI представлява много заплахи за хората, като отнемане на работни места, повече наблюдение и кибератаки. И на проблемите със сигурността с AI ще се влошат още повече. Но има и друго притеснение: хората могат да го използват, за да разпространяват лъжи. Измамни хора могат да използват генеративен AI, за да споделят фалшиви новини чрез визуално, звуково или текстово съдържание.

instagram viewer

Фалшивите новини могат да бъдат категоризирани в три вида:

  1. Дезинформация: Неволна неправилна или невярна информация.
  2. Дезинформация: Умишлено използване на манипулативна или измамна информация.
  3. Неправилна информация: Подвеждаща новина или преувеличена версия на истината.

Кога в комбинация с технологията deepfake, генеративните AI инструменти могат да направят съдържание, което изглежда и звучи реално, като снимки, видеоклипове, аудио клипове и документи. Има много възможности за създаване на фалшиво съдържание, така че знайте как да се предпазите от deepfake видеоклипове е важно.

Разпространителите на фалшиви новини могат да генерират съдържание в големи количества, което улеснява разпространението сред масите чрез социалните медии. Целенасочената дезинформация може да се използва за повлияване на политически кампании, потенциално повлияващи на изборите. Освен това използването на AI инструменти за генериране на текст и изображения поражда опасения по отношение на законите за авторското право, както се съобщава от Изследователската служба на Конгреса: определянето на собствеността върху съдържанието, генерирано от тези инструменти, става предизвикателство.

Как законът ще се справи с разпространението на фалшиви новини чрез генериращ AI? Кой ще носи отговорност за разпространението на невярна информация - потребителите, разработчиците или самите инструменти?

4 начина, по които генериращият AI може да се използва за разпространение на дезинформация

За да бъде в безопасност онлайн, всеки трябва да разбере рисковете от генеративния ИИ при разпространението на дезинформация, тъй като той се предлага в много различни форми. Ето няколко начина, по които може да се използва за манипулиране на хората.

1. Генериране на фалшиво съдържание онлайн

Създаването на фалшиво съдържание с помощта на генериращ AI е често срещана стратегия, използвана от онези, които разпространяват фалшиви новини. Те използват популярни генеративни AI инструменти като ChatGPT, DALL-E, Bard, Midjourney и други, за да произвеждат различни видове съдържание. Например, ChatGPT може да помогне на създателите на съдържание по много начини. Но може също така да генерира публикации в социални медии или новинарски статии, които могат да заблудят хората.

За да докажа това, подканих ChatGPT да напише измислена статия за ареста на президента на САЩ Джо Байдън по обвинения в корупция. Също така поискахме да включва изявления от съответните органи, за да изглежда по-правдоподобно.

Ето измислената статия, която ChatGPT измисли:

Изненадващо, резултатът беше много убедителен. В него са включени имена и изявления на авторитетни личности, за да бъде статията по-убедителна. Това показва как всеки може да използва такива инструменти, за да генерира фалшиви новини и лесно да ги разпространява онлайн.

2. Използване на чатботове за повлияване на мненията на хората

Чатботовете, които разчитат на генеративни AI модели, могат да използват различни тактики, за да повлияят на мненията на хората, включително:

  • Емоционална манипулация: AI може да използва модели на емоционална интелигентност, за да използва емоционалните задействания и пристрастия, за да оформи вашите перспективи.
  • Ехо камери и отклонение за потвърждение: Чатботовете могат да подсилят съществуващите вярвания чрез създаване на ехо камери, които потвърждават вашите пристрастия. Ако вече имате определена гледна точка, AI може да я засили, като представи информация, която е в съответствие с вашите мнения.
  • Социално доказателство и ефект на банда: AI може да манипулира обществените настроения, като генерира социални доказателства. Това може да има значителни последици, тъй като може да накара хората да се съобразят с популярните мнения или да следват тълпата.
  • Целенасочена персонализация: Чатботовете имат достъп до огромно количество данни, които могат да събират, за да създават персонализирани профили. Това им позволява да персонализират съдържанието според вашите предпочитания. Чрез целенасочена персонализация AI може да убеди хората или допълнително да укрепи техните мнения.

Всички тези примери илюстрират как чатботовете могат да се използват за подвеждане на хората.

3. Създаване на AI DeepFakes

Някой може да използва deepfakes, за да създаде фалшиви видеоклипове на индивид, който казва или прави неща, които никога не е правил. Те могат да използват такива инструменти за социално инженерство или провеждане на клеветнически кампании срещу други. Нещо повече, в днешната мем култура deepfakes могат да служат като инструменти за кибертормоз в социалните медии.

Освен това политическите противници могат да използват дълбоки фалшиви аудио и видеозаписи, за да опетнят репутацията на опонентите си, манипулирайки обществените настроения с помощта на AI. Така Генерираните от AI дълбоки фалшификати представляват множество заплахи в бъдеще. Според 2023 г Доклад на Ройтерс, възходът на AI технологията може да повлияе на изборите в Америка през 2024 г. Докладът подчертава достъпността на инструменти като Midjourney и DALL-E, които могат лесно да създават изфабрикувано съдържание и да повлияят на колективните мнения на хората.

Тогава е важно да можете идентифицирайте видеоклипове, създадени от deepfakes и ги разграничи от оригиналите.

4. Клониране на човешки гласове

Generative AI, заедно с технологията deepfake, дава възможност за манипулиране на нечия реч. Технологията Deepfake напредва бързо и предлага разнообразие от инструменти, които могат да копират нечий глас. Това позволява на злонамерени лица да се представят за други и да измамят нищо неподозиращи лица. Един такъв пример е използването на deepfake музика.

Може да сте попадали на инструменти като Прилича на AI, Speechify, FakeYouи други, които могат да имитират гласовете на известни личности. Въпреки че тези AI аудио инструменти могат да бъдат забавни, те крият значителни рискове. Измамниците могат да използват техники за клониране на глас за различни измамни схеми, което води до финансови загуби.

Измамниците могат да използват дълбоки фалшиви гласове, за да се представят за ваши близки и да ви се обадят, като се преструват, че са в беда. Със синтетично аудио, което звучи убедително, те биха могли да ви подтикнат да изпратите пари спешно, което ще ви накара да станете жертва на техните измами. Инцидент, съобщен от Вашингтон пост през март 2023 г. е пример за този проблем: измамниците са използвали дълбоки фалшиви гласове, за да убедят хората, че внуците им са в затвора и се нуждаят от пари...

Как да забележите дезинформация, разпространявана от AI

Борбата с разпространението на дезинформация, улеснена от AI, е неотложен проблем в днешния свят. И така, как можете да забележите невярна информация, която е направена от AI?

  1. Подходете към онлайн съдържанието със скептицизъм. Ако срещнете нещо, което изглежда манипулативно или невероятно, проверете го чрез кръстосана проверка.
  2. Преди да се доверите на новинарска статия или публикация в социални медии, уверете се, че произхожда от надежден източник.
  3. Внимавайте за индикатори за дълбоки фалшификации, като неестествено мигане или движения на лицето, лошо качество на звука, изкривени или замъглени изображения и липса на истинска емоция в речта.
  4. Използвайте уебсайтове за проверка на фактите, за да проверите точността на информацията.

Следвайки тези стъпки, можете да идентифицирате и да се предпазите от дезинформация, управлявана от AI.

Пазете се от дезинформация, разпространявана от AI

Генеративният софтуер изигра решаваща роля в развитието на ИИ. Все пак те могат да бъдат и значителен източник на дезинформация в обществото. Тези достъпни инструменти позволиха на всеки да създава различни типове съдържание, използвайки сложни AI модели; способността им да генерират съдържание в големи количества и да включват deepfakes ги прави още по-опасни.

Важно е да сте наясно с предизвикателствата на дезинформацията в ерата на ИИ. Разбирането как AI може да се използва за разпространение на фалшиви новини е първата стъпка към защитата ви от дезинформация.