Възможностите на изкуствения интелект се разширяват експоненциално, като сега ИИ се използва в индустрии от реклама до медицински изследвания. Използването на AI в по-чувствителни области, като софтуер за разпознаване на лица, алгоритми за наемане на работа и осигуряване на здравни грижи, предизвика дебат за пристрастия и справедливост.

Пристрастието е добре проучен аспект на човешката психология. Изследванията редовно разкриват нашите несъзнателни предпочитания и предразсъдъци и сега виждаме как ИИ отразява някои от тези пристрастия в техните алгоритми.

И така, как изкуственият интелект става пристрастен? И защо това има значение?

Как AI става пристрастен?

За улеснение в тази статия ще се позовем машинно обучение и дълбоко обучение алгоритми като AI алгоритми или системи.

Изследователите и разработчиците могат да въведат пристрастия в системите за ИИ по два начина.

Първо, когнитивните пристрастия на изследователите могат случайно да бъдат вградени в алгоритмите за машинно обучение. Когнитивните пристрастия са несъзнателни човешки възприятия, които могат да повлияят на начина, по който хората вземат решения. Това се превръща в значим проблем, когато пристрастията са по отношение на хора или групи хора и могат да навредят на тези хора.

instagram viewer

Тези пристрастия могат да бъдат въведени директно, но случайно, или изследователите могат да обучат ИИ на набори от данни, които самите са били засегнати от пристрастия. Например AI за разпознаване на лица може да бъде обучен с помощта на набор от данни, който включва само светлокожи лица. В този случай AI ще се представи по-добре, когато се занимава със светлокожи лица, отколкото тъмни. Тази форма на AI пристрастия е известна като отрицателно наследство.

На второ място, пристрастия могат да възникнат, когато AI се обучава на непълни набори от данни. Например, ако AI е обучен на набор от данни, който включва само компютърни учени, той няма да представлява цялата популация. Това води до алгоритми, които не предоставят точни прогнози.

Примери за AI пристрастия в реалния свят

Има многобройни скорошни, добре докладвани примери за AI пристрастия, които илюстрират опасността да позволи на тези пристрастия да се прокраднат.

Приоритет на здравеопазването, базиран в САЩ

През 2019 г. е разработен алгоритъм за машинно обучение, който помага на болниците и застрахователните компании да определят кои пациенти ще се възползват най-много от определени здравни програми. Въз основа на база данни от около 200 милиона души, алгоритъмът облагодетелства белите пациенти пред чернокожите.

Беше установено, че това се дължи на погрешно предположение в алгоритъма по отношение на различните разходи за здравеопазване между черно-белите хора и пристрастието в крайна сметка е намалено с 80%.

КОМПАСИ

Профилирането за управление на престъпниците за алтернативни санкции или COMPAS е алгоритъм на ИИ, предназначен да предскаже дали конкретни хора ще извършат повторно нарушение. Алгоритъмът удвоява фалшивите положителни резултати за чернокожите, в сравнение с белите. В този случай както наборът от данни, така и моделът бяха погрешни, въвеждайки тежки пристрастия.

Amazon

Алгоритъмът за наемане, който Amazon използва, за да определи годността на кандидатите, беше установен през 2015 г., за да облагодетелства силно мъжете пред жените. Това беше така, защото наборът от данни съдържаше изключително мъже и техните автобиографии, тъй като повечето служители на Amazon са мъже.

Как да спрем AI пристрастия

AI вече революционизира начина, по който работим всяка индустрия. Наличието на предубедени системи, контролиращи чувствителни процеси на вземане на решения, е по-малко от желателно. В най-добрия случай намалява качеството на изследванията, базирани на ИИ. В най-лошия случай той вреди активно на малцинствените групи.

Има примери за AI алгоритми, които вече са свикнали подпомага човешкото вземане на решения чрез намаляване на въздействието на човешките когнитивни пристрастия. Поради това как се обучават алгоритмите за машинно обучение, те могат да бъдат по-точни и по-малко пристрастни от хората в една и съща позиция, което води до по-справедливо вземане на решения.

Но, както показахме, и обратното е вярно. Рисковете от допускането на човешки пристрастия да бъдат приготвени и засилени от ИИ могат да надхвърлят някои от възможните ползи.

В края на деня, AI е толкова добър, колкото данните, с които е обучен. Разработването на безпристрастни алгоритми изисква обширен и задълбочен анализ на наборите от данни, като се гарантира, че данните са свободни от неявни пристрастия. Това е по-трудно, отколкото звучи, защото толкова много от нашите пристрастия са в безсъзнание и често са трудни за идентифициране.

Предизвикателства при предотвратяване на пристрастия към ИИ

При разработването на AI системи, всяка стъпка трябва да бъде оценена за потенциала й да вгради пристрастия в алгоритъма. Един от основните фактори за предотвратяване на пристрастия е да се гарантира, че справедливостта, а не пристрастието, се „вписва“ в алгоритъма.

Определяне на справедливостта

Честността е понятие, което е относително трудно да се определи. Всъщност това е дебат, който никога не е постигнал консенсус. За да направим нещата още по-трудни, при разработването на системи за ИИ понятието за справедливост трябва да бъде дефинирано математически.

Например, по отношение на алгоритъма за наемане на Amazon, справедливостта би ли изглеждала като перфектно разделяне на 50/50 от мъже към жени? Или различна пропорция?

Определяне на функцията

Първата стъпка в развитието на ИИ е да се определи точно какво ще постигне. Ако се използва примерът COMPAS, алгоритъмът ще предскаже вероятността престъпниците да извършат повторно нарушение. След това трябва да се определят ясни входове за данни, за да може алгоритъмът да работи. Това може да изисква определяне на важни променливи, като например броя на предходните престъпления или вида на извършените престъпления.

Правилното определяне на тези променливи е трудна, но важна стъпка за гарантиране на справедливостта на алгоритъма.

Създаване на набора от данни

Както разгледахме, основна причина за пристрастие към ИИ са непълни, непредставителни или предубедени данни. Подобно на случая с AI за разпознаване на лица, входните данни трябва да бъдат внимателно проверени за пристрастия, целесъобразност и пълнота преди процеса на машинно обучение.

Избор на атрибути

В алгоритмите някои атрибути могат да бъдат разгледани или не. Атрибутите могат да включват пол, раса или образование - основно всичко, което може да е важно за задачата на алгоритъма. В зависимост от това кои атрибути са избрани, прогнозната точност и пристрастие на алгоритъма могат да бъдат силно засегнати. Проблемът е, че е много трудно да се измери колко пристрастен е един алгоритъм.

AI Bias не е тук, за да остане

AI пристрастия възникват, когато алгоритмите правят предубедени или неточни прогнози поради предубедени входове. Това се случва, когато предубедени или непълни данни се отразяват или усилват по време на разработването и обучението на алгоритъма.

Добрата новина е, че с умножаването на финансирането за изследванията на ИИ, вероятно ще видим нови методи за намаляване и дори премахване на пристрастията към ИИ.

електронна поща
5 често срещани мита за изкуствения интелект, които не са верни

Нека поставим рекорда направо върху някои често срещани лъжи около AI.

Прочетете Напред

Свързани теми
  • Обяснени технологии
  • Изкуствен интелект
  • Машинно обучение
За автора
Джейк Харфийлд (6 статии публикувани)

Джейк Харфийлд е писател на свободна практика, базиран в Пърт, Австралия. Когато не пише, обикновено е в храсталака и снима местни диви животни. Можете да го посетите на www.jakeharfield.com

Още от Джейк Харфийлд

Абонирайте се за нашия бюлетин

Присъединете се към нашия бюлетин за технически съвети, рецензии, безплатни електронни книги и ексклузивни оферти!

Още една стъпка…!

Моля, потвърдете имейл адреса си в имейла, който току-що ви изпратихме.

.