Изкуственият интелект (AI) е колкото противоречив, толкова и впечатляващ. Това може да улесни много части от работата и ежедневието, но също така повдига някои етични въпроси. Използването на AI от правителството на САЩ, по-специално, кара някои хора да се чувстват неспокойни.

Има много правителствени проекти за изкуствен интелект, които се използват или се разработват днес, а някои са направили много добри. В същото време те повдигат много опасения относно поверителността на изкуствения интелект. Ето по-подробен поглед върху тези проекти и какво означават те за обществената поверителност.

Примери за правителствени проекти за изкуствен интелект и автоматизация

Най-основните примери за изкуствен интелект, използван от правителството на САЩ, включват автоматизиране на рутинната офис работа. През 2019 г. Сиатъл използва Роботизирана автоматизация на процесите (RPA) да се грижи за приложенията за въвеждане и обработка на данни. Оттогава градът премина през повече от 6000 изоставени приложения и спести стотици работни часове.

instagram viewer

Други правителствени проекти за изкуствен интелект са по-привличащи вниманието. Пожарната в Ню Йорк тества кучета роботи от Бостън Динамикс за измерване на структурни повреди и токсични изпарения, преди да влязат пожарникари. Преди проекта за пожарогасен робот полицейското управление на Ню Йорк е планирало да приложи същите роботи.

Полицейските управления и други правителствени агенции в цялата страна обмислят използването на подобни технологии. Въпреки това, тъй като тези правителствени проекти за изкуствен интелект се развиват, потенциалните им недостатъци в поверителността стават по-ясни.

Изкуственият интелект представлява ли заплаха за поверителността и сигурността?

Все още не е сигурно дали ще видите полицейски роботи в бъдеще, но изглежда нещата вървят натам. Тези проекти имат много предимства, но опасенията за поверителността на изкуствения интелект стават по-сериозни, когато се работи с правителството. Ето някои от най-големите проблеми с тези технологии.

Изкуственият интелект разчита на събиране и анализиране на данни. В резултат на това повече правителствени проекти за изкуствен интелект означават, че тези агенции ще събират и съхраняват допълнителна информация за своите граждани. Някои хора смятат, че цялата тази информация събира нарушава тяхната поверителност и нарушава правата им.

Технологии като проекта за пожарникарски кучета са особено тревожни, защото могат да направят правителственото наблюдение подвеждащо. Агенциите казват, че роботът е там, за да проверява опасенията за безопасността, но няма начин хората да кажат какви данни събира. Може да има камери и сензори, които сканират лицата им или проследяват мобилните им телефони, без те да знаят.

Някои хора се притесняват, че „готиният фактор“ на роботите ще скрие техния потенциал за наблюдение. В бъдеще полицейските роботи биха могли да шпионират граждани, без да пораждат много подозрение, тъй като хората просто виждат нови технологии, вместо да нарушават поверителността им.

Неясни отговорности

Тези проекти за AI и автоматизация също повдигат въпроса за отчетността. Ако робот направи грешка, която води до вреда, кой е отговорен за това? Когато държавен служител прекрачи своите граници и наруши нечии права, съдилищата могат да го държат отговорни, но какво да кажем за робот?

Можете да видите този проблем при самоуправляващите се автомобили. Хората са обвинили производителя по иск за продуктова отговорност в някои случаи на катастрофи на автопилот, докато други обвиняват водача. В един случай, Национален съвет за безопасност на транспорта възлага отговорност както на производителя, така и на водача, но в крайна сметка това трябва да се решава за всеки отделен случай. Полицейските роботи замъгляват водата по същия начин. Ако те нарушат поверителността ви, не е ясно дали да обвинявате производителя, полицейското управление или човешките надзорници.

Това объркване може да забави и усложни съдебните процедури. Може да отнеме известно време, докато жертвите на нарушения на поверителността или правата им получат справедливостта, която заслужават. Нови закони и правен прецедент биха могли да изяснят нещата и да решат този проблем, но в момента не е сигурно.

Рискове от нарушаване на данните

Изкуственият интелект, използван от правителството на САЩ, може също да разшири опасенията за поверителността на ИИ, които виждате в частния сектор. Събирането на някои данни може да е напълно законно, но колкото повече организации събират, толкова повече са изложени на риск. Компанията или правителството може да не използват информацията за нещо незаконно, но това може да направи хората уязвими към киберпрестъпления.

Имаше повече от 28 000 кибератаки срещу правителството на САЩ само през 2019 г. Ако агенциите държат повече лична информация на гражданите, тези атаки могат да засегнат не само правителството. Успешното пробив на данни може да застраши много хора, без те да знаят. Нарушенията често остават незабелязани, така че трябва да го направите проверете данните ви вече не са за продажба.

Например, ако полицейски робот в бъдеще използва разпознаване на лица, за да търси издирвани престъпници, той може да съхранява биометрични данни на много граждани. Хакерите, които влязат в системата, могат да откраднат тази информация и да я използват, за да проникнат в банкови сметки на хората. Правителствените проекти за изкуствен интелект трябва да имат силни мерки за киберсигурност, ако не искат да застрашат данните на хората.

Правителствен AI има ползи, но поражда притеснения

Все още не е ясно как американското правителство ще използва изкуствен интелект в бъдеще. Нови защити и закони биха могли да разрешат тези проблеми и да донесат всички предимства на AI без рисковете. Засега обаче тези опасения предизвикват някои тревоги.

Притесненията за поверителността изобилстват навсякъде, където AI работи. Тези въпроси стават по-сериозни, тъй като то играе по-голяма роля в правителството. Държавните проекти за изкуствен интелект могат да направят много добри, но имат и значителен потенциал за вреда.

Microsoft предупреждава, че "1984" може да се сбъдне след три години

Прочетете Следващото

ДялтуитДялелектронна поща

Свързани теми

  • Сигурност
  • Изкуствен интелект
  • Онлайн поверителност

За автора

Шанън Флин (публикувани 79 статии)

Шанън е създател на съдържание, намиращ се във Фили, Пенсилвания. Тя пише в областта на технологиите от около 5 години, след като е завършила специалност ИТ. Шанън е управляващ редактор на списание ReHack и обхваща теми като киберсигурност, игри и бизнес технологии.

Още от Шанън Флин

Абонирайте се за нашия бюлетин

Присъединете се към нашия бюлетин за технически съвети, ревюта, безплатни електронни книги и ексклузивни оферти!

Щракнете тук, за да се абонирате