Тази публикация е спонсорирана от Incogni.
Огледайте се около себе си; околната среда е гъмжаща от AI и неговите почти чудотворни възможности. AI или изкуственият интелект позволява на компютър или машина да разсъждава, да учи и да действа интелигентно, като човек.
Наистина, ChatGPT и други генеративни AI технологии се разпространяват в почти всяка индустрия – от здравеопазването, банкирането и производството до творческите изкуства и потребителския софтуер.
Но дали това овластяващо ново бъдеще, което процъфтява от данни, ще ни даде нашето основно човешко право на поверителност?
Ако подобни мисли ви минават през ума, опасенията ви за поверителност относно изкуствения интелект са естествени. Вашата поверителност е по-важна сега от всякога в тази дигитална ера.
Какви са рисковете за поверителността, свързани с AI?
Според Проучвания на Pew Research, всеки четвърти американец трябва да се съгласи с политиката за поверителност всеки ден. Въпреки това само 22% четат правилата за поверителност изцяло.
Нека разгледаме AI услуги като ChatGPT, Google Cloud AI, Jupyter, Viso Suite и Chrorus.ai Техните политики за поверителност гласят, че събира вашата лична информация, съдържанието, което преглеждате или с което се ангажирате, и дори източник на данни от социални медийни платформи и публични бази данни.
Освен това вашите данни се използват за обучение на техните AI модели.
Така че можете да се насладите на писане на имейли и презентации за секунди; чатете с бот за обслужване на клиенти; виртуално пробвайте аксесоари, докато пазарувате; или просто Google като реклами въз основа на вашите интереси ви следват в мрежата.
Тези операции се захранват от вашите данни, които се събират всяка минута. Ако смятате, че това е изкуствен интелект, който нахлува в личния ви живот, не грешите.
Докато компаниите с изкуствен интелект твърдят, че вашата информация е безопасна, многобройни пробиви на данни от киберпрестъпници са довели до кражба на самоличност, финансови загуби и увреждане на репутацията на жертвите по целия свят.
Констатации на Изследване на Surfshark Global Data Breach Stats показват, че САЩ са имали над 2,6 милиарда записа, разкрити чрез пробиви на данни от 2004 г.
И повечето AI модели се обучават на голям набор от данни от публични източници, повечето от които са пристрастни. Това пристрастие може да доведе до сериозни последствия, като нарушаване на правото ви на поверителност.
Правни и етични последици от поверителността в епохата на ИИ
Нашите закони за поверителност важат ли за AI? Според Подкаст на Американската адвокатска асоциация относно регулирането на ИИ в САЩ, понастоящем няма всеобхватно федерално законодателство, посветено единствено на регулирането на ИИ.
Европейският съюз прие Закона за ИИ, според който регламентът ще се увеличи пропорционално на потенциалната заплаха за неприкосновеността на личния живот и безопасността, която представлява една система с ИИ. Надяваме се, че този закон за ИИ ще катализира САЩ, Обединеното кралство и други страни също да приемат своите закони.
Въпреки това, регулирането на AI и защитата на поверителността поставят много предизвикателства, тъй като алгоритмите на AI са сложни.
Второ, повечето съществуващи закони за поверителност се коренят в модел на известие и съгласие на потребителския избор. Политиките за поверителност са пример, с който клиентите се съгласяват, но рядко се четат изцяло.
Освен това лица, продадени на революцията на изкуствения интелект, могат доброволно да разкрият лична информация, проваляйки целта да се гарантира поверителност на данните от изкуствения интелект.
В идеалния случай нашето ново бъдеще, управлявано от изкуствен интелект, също трябва да бъде ръководено от етиката, за да защити поверителността на нашите данни. То трябва да бъде безопасно, справедливо, безпристрастно и полезно за всички. Създателите и разработчиците трябва да обучават AI модели, използвайки данни, които са разнообразни.
За да спечелят нашето доверие, AI моделите трябва да бъдат прозрачни относно решенията, взети с нашите данни. И тъй като AI вече замества значителна работна сила, развитието на AI трябва да доведе до създаването на по-добри работни места.
Защита на поверителността в свят, управляван от AI
Трябва да имате избор да споделите личните данни, които искате. И компаниите с изкуствен интелект трябва да въведат подобрени мерки за защита на данните, за да гарантират, че вашата информация остава защитена и поверителна.
Принципите за поверителност при проектиране трябва да бъдат интегрирани във всички операции, във всички дейности и обработка, като по този начин се гарантира защита на поверителността на данните през целия жизнен цикъл на системата с ИИ.
Освен това стабилни закони и разпоредби трябва да управляват моделите с изкуствен интелект и никнещите като гъби нови компании за изкуствен интелект.
В първия по рода си глобален стандарт, разработен от ЮНЕСКО, правото на поверителност и защита на данните е сред 10-те основни принципа на тази препоръка за изграждане на AI технологии.
Вашата роля в защитата на вашата поверителност
Според Отношението на Surfshark към проучване на поверителността през 2022 г, 90% от интернет потребителите са съгласни, че поверителността онлайн е важна за тях. А 32% заявяват, че качеството на услугите е по-важно от поверителността.
Ако трябва да изследвате най-новата AI технология, за да работите по-бързо, давайте. Но отделете няколко минути, за да прочетете неговата политика за поверителност. И потърсете отказа за споделяне на данни.
Започнете да управлявате поверителността си с устройството в ръката си или на компютъра си. Използвайте VPN за сърфиране и отказвайте разрешения за съхранение на приложения, които не използвате.
Знаете ли, че можете редовно да почиствате цифровия си отпечатък? И се откажете от базите данни на брокери на данни кой събира вашата лична информация?
Върнете си поверителността с Incogni
Брокерите на данни винаги се стремят да откраднат вашата лична информация от публични записи и чрез вашите навици за сърфиране. Ако виртуално сте изпробвали слънчеви очила, лицето ви също ще бъде в база данни.
Инкогни изброява брокери на данни, които е вероятно да разполагат с информация за клиенти, като номер на социално осигуряване, физически адрес, здравна информация, телефонен номер или имейл адрес. Такива данни се продават на компании за инвестиции, здравеопазване, финанси, маркетинг или набиране на персонал. Или използвани, за да ви измамят или хванат в капан при опити за китолов.
Всичко това може да доведе до нежелани реклами, да повлияе на допустимостта на вашия заем или застрахователните ставки и да увеличи риска от кибератаки.
Но Incogni изпраща заявки за премахване на данни до брокери на данни от ваше име, дори след като вашите данни бъдат изтрити, тъй като брокерите на данни започват да събират вашата информация отново.
Можете да наблюдавате процеса и да преглеждате потенциални намерени бази данни, изпратени заявки и изпълнени заявки на вашето удобно за потребителя табло за управление Incogni.
Можете да върнете поверителността си сега, като вземете a 1-годишен абонамент Incogni с 50% отстъпка—само $6,49 на месец—и дръжте данните си извън пазара и в безопасност.
AI и вашата поверителност: Необходимостта от революционен баланс
Несъмнено това ново бъдеще на изкуствения интелект е предразположено към рискове за поверителността, което прави справянето с тях важно. И Incogni може да бъде изход.
Наистина, колелото на промяната за регулиране на компаниите за изкуствен интелект и защита на поверителността ви започна да се върти. Да се надяваме, че ще набере скорост, за да се превърне в революция като AI и ще задоволи нуждата от балансиран подход към разработването на AI и защитата на поверителността.
Това е спонсорирана публикация. Изборът на продукти и мненията, изразени в тази статия, са от спонсора и не отразяват редакционната насока на MakeUseOf или неговия персонал.