Независимо дали става въпрос за лоши данни или лоши потребители, изкуственият интелект, създаден с машинно обучение, в крайна сметка може да направи сериозни грешки.

Машинното обучение е чудесен начин за създаване на изкуствен интелект, който е мощен и се адаптира към своите данни за обучение. Но понякога тези данни могат да причинят проблеми. Друг път проблемът е начинът, по който хората използват тези AI инструменти.

Ето преглед на някои нашумели инциденти, при които машинното обучение е довело до проблемни резултати.

1. Неудачи в резултатите от търсенето на изображения в Google

Google Търсене направи навигацията в мрежата много по-лесна. Алгоритъмът на двигателя взема предвид различни неща, когато разбива резултатите. Но алгоритъмът се учи и от потребителския трафик, което може да причини проблеми с качеството на резултатите от търсенето.

Никъде това не е по-очевидно, отколкото в резултатите от изображенията. Тъй като страниците, които получават голям трафик, е по-вероятно изображенията им да се показват, историите, които привличат голям брой потребители, включително примамка за кликване, могат да се окажат приоритетни.

instagram viewer

Например, резултатите от търсенето на изображения за „скуотерски лагери в Южна Африка“ предизвикаха противоречия, когато беше открито, че включва предимно бели южноафриканци. Това е въпреки статистиката, която показва, че огромното мнозинство от живеещите в неофициални жилища са чернокожи южноафриканци.

Факторите, използвани в алгоритъма на Google, също означават, че интернет потребителите могат да манипулират резултатите. Например, кампания от потребители повлия на резултатите от търсенето на изображения в Google до степен, че търсенето на термина „идиот“ показва изображения на бившия президент на САЩ Доналд Тръмп за определен период.

2. Microsoft Bot Tay се превърна в нацист

Задвижваните от AI чатботове са изключително популярни, особено тези, задвижвани от големи езикови модели като ChatGPT. ChatGPT има няколко проблема, но създателите му са се поучили и от грешките на други компании.

Един от най-известните инциденти на чатботове, които се объркват, беше опитът на Microsoft да пусне своя чатбот Tay.

Тей имитира езиковите модели на тийнейджърка и се учи чрез взаимодействието си с други потребители на Twitter. Въпреки това, тя се превърна в една от най-скандалните грешни стъпки на AI, когато започна да споделя нацистки изявления и расови обиди. Оказва се, че троловете са използвали машинното обучение на AI срещу него, наводнявайки го с взаимодействия, заредени с фанатизъм.

Не след дълго Microsoft взе Тей офлайн завинаги.

3. Проблеми с лицево разпознаване с изкуствен интелект

AI за лицево разпознаване често прави заглавия по всички погрешни причини, като например истории за лицево разпознаване и опасения за поверителността. Но този AI има проблемна история, когато се опитва да разпознае цветнокожи хора.

През 2015 г. потребителите откриха, че Google Photos категоризира някои черни хора като горили. През 2018 г. изследване на ACLU показа, че софтуерът за идентификация на лицето Rekognition на Amazon идентифицира 28 членове на Конгреса на САЩ като полицейски заподозрени, с фалшиви положителни резултати, които непропорционално засягат хората на цвят.

Друг инцидент включваше софтуера Face ID на Apple, който неправилно идентифицира две различни китайски жени като едно и също лице. В резултат на това колегата на собственика на iPhone X може да отключи телефона.

Като пример за екстремни последици, AI за лицево разпознаване доведе до неправомерните арести на няколко души. С кабел съобщава за три такива случая.

Междувременно компютърният учен Джой Буоламвини си припомни, че често е трябвало да носи бяла маска, докато работи върху технологията за разпознаване на лица, за да накара софтуера да я разпознае. За да решат проблеми като този, Буоламвини и други ИТ специалисти обръщат внимание на проблема с пристрастията на AI и необходимостта от по-всеобхватни набори от данни.

4. Deepfakes, използвани за измами

Докато хората отдавна използват Photoshop за създаване на измамни изображения, машинното обучение извежда това на ново ниво. Deepfakes използва AI за дълбоко обучение, за да създава фалшиви изображения и видеоклипове. Софтуер като FaceApp ви позволява да сменяте лица на обекти от едно видео в друго.

Но много хора използват софтуера за различни злонамерени цели, включително наслагване на лица на знаменитости във видеоклипове за възрастни или генериране на измамни видеоклипове. Междувременно потребителите на интернет помогнаха за подобряването на технологията, за да стане все по-трудно да се разграничат истинските видеоклипове от фалшивите. В резултат на това това прави този тип изкуствен интелект много мощен по отношение на разпространението на фалшиви новини и измами.

За да покажат силата на технологията, директорът Джордан Пийл и изпълнителният директор на BuzzFeed Джона Перети създадоха дълбоко фалшиво видео, показващо нещо, което изглежда като бивш президент на САЩ Барак Обама, който изнася PSA относно силата на deepfakes.

Силата на фалшивите изображения е ускорена от генератори на изображения, захранвани от AI. Вирусни публикации през 2023 г., изобразяващи ареста на Доналд Тръмп и католическия папа в пухено яке, се оказаха резултат от генеративен ИИ.

Има съвети, които можете да следвате, за да забележите изображение, генерирано от AI, но технологията става все по-сложна.

5. Служители казват, че AI на Amazon е решил, че наемането на мъже е по-добро

През октомври 2018г. Ройтерс съобщи, че Amazon е трябвало да се откаже от инструмент за набиране на работа, след като изкуственият интелект на софтуера е решил, че кандидатите мъже са предпочитани.

Служители, пожелали да останат анонимни, се изявиха, за да разкажат на Ройтерс за работата си по проекта. Разработчиците искаха AI да идентифицира най-добрите кандидати за работа въз основа на техните автобиографии. Въпреки това, хората, участващи в проекта, скоро забелязаха, че AI наказва жените кандидати. Те обясниха, че изкуственият интелект е използвал автобиографии от последното десетилетие, повечето от които са били на мъже, като своя набор от данни за обучение.

В резултат на това изкуственият интелект започна да филтрира автобиографиите въз основа на ключовата дума „жени“. Ключовата дума се появи в автобиографията под дейности като „капитан на женски клуб по шах“. Докато разработчиците промениха AI, за да предотвратят това наказване на автобиографиите на жените, Amazon в крайна сметка отказа проекта.

6. Разбити чатботове

Въпреки че по-новите чатботове имат въведени ограничения, за да им попречат да дават отговори, които противоречат на техните условия за ползване, потребителите намират начини да пробият инструментите, за да предоставят забранено съдържание.

През 2023 г. изследователят по сигурността на Forcepoint Арън Мългрю успя да създаде злонамерен софтуер за нулев ден, използвайки подкани на ChatGPT.

„Просто използвайки подканите на ChatGPT и без да пишем никакъв код, успяхме да произведем много напреднала атака само за няколко часа“, каза Мългрю в Forcepoint пост.

Съобщава се също, че потребителите са успели да накарат чатботове да им дават инструкции как да правят бомби или да крадат коли.

7. Катастрофи на самоуправляващи се автомобили

Ентусиазмът за автономните превозни средства е помръкнал от първоначалния си етап на реклама поради грешки, допуснати от самоуправляващия се AI. През 2022 г. Вашингтон пост съобщи, че за приблизително една година 392 катастрофи, включващи усъвършенствани системи за подпомагане на водача, са докладвани на Националната администрация за безопасност на движението по пътищата на САЩ.

Тези катастрофи включват тежки наранявания и шест смъртни случая.

Въпреки че това не е спряло компании като Tesla да преследват напълно автономни превозни средства, то го е направило изрази загриженост относно увеличаването на произшествията, тъй като все повече автомобили със софтуер за самостоятелно управление достигат до пътища.

AI с машинно обучение не е безупречен

Въпреки че машинното обучение може да създаде мощни AI инструменти, те не са имунизирани срещу лоши данни или човешка намеса. Независимо дали се дължи на грешни данни за обучение, ограничения на AI технологията или използване от лоши актьори, този тип AI е довел до много негативни инциденти.