Изкуственият интелект може да звучи като президент. Или може да звучи като теб или мен. И така, какъв риск за киберсигурността представлява софтуерът за клониране на AI глас?
Изкуственият интелект (AI) е мощна технология, която обещава да преобрази живота ни. Никога това не е било толкова ясно, колкото днес, когато мощните инструменти са достъпни за всеки с интернет връзка.
Това включва AI гласови генератори, усъвършенстван софтуер, способен да имитира човешка реч толкова компетентно, че може да бъде невъзможно да се направи разлика между двете. Какво означава това за киберсигурността?
Как работят AI гласовите генератори?
Синтезът на речта, процесът на изкуствено създаване на човешка реч, съществува от десетилетия. И като всички технологии, тя претърпя дълбоки промени през годините.
Тези, които са използвали Windows 2000 и XP, може би си спомнят Microsoft Sam, мъжкия глас на операционната система по подразбиране за текст в говор. Microsoft Sam свърши работата, но издаваните звуци бяха роботизирани, твърди и неестествени. Инструментите, с които разполагаме днес, са значително по-усъвършенствани, до голяма степен благодарение на дълбокото обучение.
Дълбокото обучение е a метод на машинно обучение който се основава на изкуствени невронни мрежи. Благодарение на тези невронни мрежи съвременният AI е способен да обработва данни почти както невроните в човешкия мозък интерпретират информация. Тоест, колкото по-човекоподобен става AI, толкова по-добър е в емулирането на човешкото поведение.
Това, накратко, е начинът, по който работят съвременните гласови генератори с изкуствен интелект. На колкото повече речеви данни са изложени, толкова по-умели стават в емулирането на човешка реч. Благодарение на сравнително скорошния напредък в тази технология, най-съвременният софтуер за преобразуване на текст в реч може по същество да възпроизведе звуците, които се подават.
Как заплахите използват AI гласови генератори
Не е изненадващо, че тази технология се злоупотребява от заплахи. И не само киберпрестъпници в типичния смисъл на думата, но и от агенти за дезинформация, измамници, черни търговци и тролове.
В момента, в който ElevenLabs пусна бета версия на своя софтуер за преобразуване на текст в реч през януари 2023 г., крайнодесните тролове в таблото за съобщения 4chan започнаха да злоупотребяват с него. Използвайки усъвършенствания AI, те възпроизвеждат гласовете на хора като Дейвид Атънбъроу и Ема Уотсън, правейки да изглежда така, сякаш знаменитостите пускат гнусни, омразни тиради.
Като Заместник съобщено по това време, ElevenLabs призна, че хората злоупотребяват с нейния софтуер, по-специално гласово клониране. Тази функция позволява на всеки да "клонира" гласа на друг човек; всичко, което трябва да направите, е да качите едноминутен запис и да оставите AI да свърши останалото. Предполага се, че колкото по-дълъг е записът, толкова по-добър е резултатът.
През март 2023 г. вирусно видео в TikTok привлече вниманието на Ню Йорк Таймс. Във видеото известният подкастър Джо Роугън и д-р Андрю Хюберман, чест гост в The Joe Rogan Experience, бяха чути да обсъждат кофеинова напитка, „повишаваща либидото“. Видеото направи така, че да изглежда така, сякаш и Роган, и Хуберман недвусмислено подкрепят продукта. В действителност техните гласове са клонирани с помощта на AI.
Приблизително по същото време базираната в Санта Клара, Калифорния банка Silicon Valley се срина поради грешки в управлението на риска и други проблеми и беше поета от правителството на щата. Това беше най-големият фалит на банка в Съединените щати след финансовата криза от 2008 г., така че изпрати вълни на шок на световните пазари.
Това, което допринесе за паниката, беше фалшив аудиозапис на президента на САЩ Джо Байдън. В записа Байдън очевидно се чува да предупреждава за неизбежен „колапс“ и нарежда на администрацията си да „използва цялата сила на медиите, за да успокои обществеността“. Проверяващите факти като PolitiFact побързаха да развенчаят клипа, но вероятно милиони са го чули до този момент.
Ако AI гласовите генератори могат да се използват за представяне на известни личности, те могат да се използват и за представяне на обикновени хора и точно това правят киберпрестъпниците. Според ZDNet, хиляди американци попадат на измами, известни като vishing или гласов фишинг всяка година. Една възрастна двойка направи национални заглавия през 2023 г., когато получиха телефонно обаждане от своя „внук“, който твърдеше, че е в затвора и поиска пари.
Ако някога сте качили видеоклип в YouTube (или сте се появили в такъв), участвали сте в голям групов разговор с хора, които не сте знаете или сте качили гласа си в интернет в някакво качество, вие или вашите близки теоретично може да сте в опасност. Какво би попречило на измамник да качи гласа ви в AI генератор, да го клонира и да се свърже със семейството ви?
Гласовите генератори с изкуствен интелект нарушават пейзажа на киберсигурността
Не е нужен експерт по киберсигурност, за да разбере колко опасен може да бъде ИИ в неподходящи ръце. И макар да е вярно, че същото може да се каже за всички технологии, AI е уникална заплаха по няколко причини.
От една страна, той е сравнително нов, което означава, че всъщност не знаем какво да очакваме от него. Съвременните AI инструменти позволяват на киберпрестъпниците да мащабират и автоматизират операциите си по безпрецедентен начин, като същевременно се възползват от относителната невежество на обществото по отношение на този въпрос. Освен това генеративният AI позволява на заплахите с малко познания и умения да създаване на злонамерен код, създавайте сайтове за измама, разпространявайте спам, пишете фишинг имейли, генерират реалистични изображения, и произвеждат безкрайни часове фалшиво аудио и видео съдържание.
Най-важното е, че това работи и в двете посоки: AI също се използва за защита на системите и вероятно ще бъде така за десетилетия напред. Не би било неразумно да предположим, че това, което ни очаква, е нещо като надпревара във въоръжаването с изкуствен интелект между киберпрестъпниците и индустрията за киберсигурност, тъй като защитните и нападателните способности на тези инструменти са присъщи равен.
За обикновения човек появата на широко разпространения генеративен ИИ изисква радикал преосмисляне на практиките за сигурност. Колкото и вълнуващ и полезен да е AI, той може най-малкото да размие границата между това, което е реално и това, което не е и в най-лошия случай изостри съществуващите проблеми със сигурността и създаде ново пространство за маневриране на участниците в заплахата в.
Генераторите на глас показват разрушителния потенциал на AI
Веднага след като ChatGPT излезе на пазара, разговорите за регулиране на AI се засилиха. Всеки опит за ограничаване на тази технология вероятно ще изисква международно сътрудничество до степен, която не сме виждали от десетилетия, което го прави малко вероятно.
Джинът е извън бутилката и най-доброто, което можем да направим, е да свикнем с него. Това и се надяваме, че секторът на киберсигурността ще се адаптира съответно.