Идеята, че AI технологиите трябва да бъдат регулирани, е често срещано мнение. Повечето правителства, разработчици на AI продукти и дори обикновени потребители на AI продукти са съгласни с това. За съжаление, най-добрият начин за регулиране на тази бързо разрастваща се сфера е нерешеният пъзел.

Ако бъдат оставени без контрол, AI технологиите могат да нарушат негативно начина ни на живот и да застрашат съществуването ни. Но как могат правителствата да се ориентират в лабиринта от предизвикателства, които идват с тази бързо развиваща се област?

1. Правила за поверителност и защита на данните

Един от основните проблеми с AI технологиите е поверителността и сигурността на данните. Системите с изкуствен интелект са гладни за данни машини. Те се нуждаят от данни, за да работят, повече данни, за да бъдат ефективни, и още повече данни, за да се подобрят. Въпреки че това не е проблем, начинът, по който се получават тези данни, естеството им и как се обработват и съхраняват, е една от най-големите теми за разговори около регулациите за ИИ.

instagram viewer

Като се има предвид това, логичният път, който трябва да поемете, е да се въведат строги разпоредби за поверителност на данните, които управляват данните събиране, съхранение и обработка, както и правата на лицата, чиито данни се използват, за достъп и контрол техните данни. Въпросите, които тези разпоредби вероятно биха адресирали, са:

  • Какъв вид данни могат да се събират?
  • Трябва ли някои лични данни да се считат за табу в AI?
  • Как компаниите с изкуствен интелект трябва да обработват чувствителни лични данни, като здравни досиета или биометрична информация?
  • Трябва ли да се изисква от компаниите за изкуствен интелект да прилагат механизми, позволяващи на физическите лица лесно да поискат изтриване или коригиране на техните лични данни?
  • Какви са последствията за компаниите с изкуствен интелект, които не спазват разпоредбите за поверителност на данните? Как трябва да се наблюдава съответствието и как трябва да се гарантира прилагането?
  • Може би най-важното е какъв стандарт трябва да прилагат компаниите за ИИ, за да осигурят безопасността на чувствителния характер на информацията, която притежават?

Тези въпроси и няколко други формираха същината на защо ChatGPT беше временно забранен в Италия. Освен ако тези опасения не бъдат разгледани, пространството на изкуствения интелект може да е див запад за поверителността на данните, а забраната на Италия може да се окаже шаблон за забрани от други страни по света.

2. Разработване на етична рамка за ИИ

Компаниите за изкуствен интелект често се хвалят с ангажимента си към етичните насоки при разработването на системи за изкуствен интелект. Поне на хартия всички те са привърженици на отговорното развитие на ИИ. В медиите ръководителите на Google подчертаха как компанията приема сериозно безопасността и етиката на ИИ. По подобен начин „Безопасен и етичен AI“ е мантра за изпълнителния директор на OpenAI, Сам Алтман. Тези са доста похвални.

Но кой създава правилата? Кой решава кои етични насоки за ИИ са достатъчно добри? Кой решава как изглежда безопасното разработване на AI? В момента изглежда, че всяка AI компания има свой собствен подход към отговорното и етично разработване на AI. OpenAI, Anthropic, Google, Meta, Microsoft, всички. Опасно е просто да разчитате на компаниите за изкуствен интелект да направят правилното нещо.

The последствията от неконтролирано AI пространство могат да бъдат катастрофални. Оставянето на отделни компании да решават какви етични насоки да приемат и кои да отхвърлят, е равносилно на сомнамбулизъм по нашия път към AI апокалипсис. Решението? Ясна етична AI рамка, която гарантира:

  • Системите с изкуствен интелект не поставят несправедливо в неравностойно положение или дискриминират индивиди или определени групи въз основа на раса, пол или социално-икономически статус.
  • AI системите са безопасни, защитени и надеждни и минимизират риска от нежелани последствия или вредно поведение.
  • AI системите са изградени с оглед на по-широкото обществено въздействие на AI технологиите.
  • Че хората запазват пълния контрол върху системите с изкуствен интелект и прозрачното вземане на решения.
  • AI системите са умишлено ограничени по начини, които са изгодни за хората.

3. Специализирана регулаторна агенция

Поради потенциалното му въздействие върху човешката цивилизация, дискусията около безопасността на ИИ обикновено е успоредна с риска от здравна криза или ядрена катастрофа. Избягването на потенциални ядрени инциденти налага специална агенция като американската NRC (Комисия за ядрено регулиране). Избягването на риска от опасни здравни кризи налага създаването на FDA (Администрация по храните и лекарствата)

По същия начин, за да се гарантира, че нещата няма да се объркат в областта на ИИ, е необходима специална агенция, подобна на FDA и NRC, тъй като ИИ продължава да навлиза агресивно във всички области на живота ни. За съжаление въпросът с регулирането на ИИ в страната е труден. Работата на всяка специална регулаторна агенция вероятно ще бъде агонизиращо трудна без трансгранично сътрудничество. Точно както NRC (Комисията за ядрено регулиране) на САЩ трябва да работи ръка за ръка с Международната агенция за атомна енергия Агенцията (МААЕ), за да бъде в най-добрия си вид, всяка специализирана регулаторна агенция за ИИ в страната също ще се нуждае от международен аналог.

Такава агенция ще отговаря за следното:

  • Разработване на регламенти за ИИ
  • Осигуряване на съответствие и прилагане
  • Наблюдение на процеса на етичен преглед на AI проекти
  • Сътрудничество и междудържавно сътрудничество относно безопасността и етиката на ИИ

4. Разглеждане на проблеми с авторското право и интелектуалната собственост

Съществуващите закони за авторското право и правни рамки се разпадат пред лицето на изкуствения интелект. Начинът, по който са проектирани AI инструментите, особено генеративните AI инструменти, ги кара да изглеждат като публично одобрена машина за нарушаване на авторски права, срещу която не можете да направите нищо.

как? Е, много от днешните AI системи се обучават с помощта на защитени с авторски права материали. Знаете, защитени с авторски права статии, защитени с авторски права песни, защитени с авторски права изображения и т.н. Ето как инструментите харесват ChatGPT, Bing AI и Google Bard могат да правят страхотните неща, които те правят.

Докато тези системи очевидно се възползват от интелектуалната собственост на хората, начинът, по който тези AI системи го правят не се различава по нищо от човек, който чете защитена с авторски права книга, слуша песни с авторски права или гледа защитени с авторски права изображения.

Можете да прочетете защитена с авторски права книга, да научите нови факти от нея и да използвате тези факти като основа за собствената си книга. Можете също така да слушате защитена с авторски права песен за вдъхновение да създадете своя собствена музика. И в двата случая сте използвали материали, защитени с авторски права, но това не означава непременно, че производният продукт нарушава авторските права на оригинала.

Въпреки че това е логично обяснение, за да се обясни бъркотията, която изкуственият интелект прави със законите за авторското право, той все още вреди на собствениците на авторски права и интелектуална собственост. С оглед на това са необходими разпоредби за:

  • Ясно дефинирайте задълженията и отговорностите на всички страни, участващи в жизнения цикъл на една AI система. Това включва изясняване на ролите на всяка страна, от разработчиците на AI до крайните потребители, за да се гарантира, че са отговорни страните се държат отговорни за всяко нарушение на авторски права или нарушения на интелектуалната собственост, извършени от AI системи.
  • Укрепване на съществуващите рамки за авторско право и може би въвеждане на специфични за AI закони за авторското право.
  • За да се осигурят иновации в AI пространството, като същевременно се защитят правата на оригиналните създатели, AI регламентите трябва да предефинират понятията за честна употреба и преобразуваща работа в контекста на Съдържание, генерирано от AI. Необходими са по-ясни дефиниции и насоки, за да се гарантира, че AI пространството може да продължи да се подобрява при спазване на границите на авторското право. От съществено значение е да се постигне баланс между иновациите и запазването на правата на създателите на съдържание.
  • Ясни пътища за сътрудничество с притежателите на права. Ако AI системите така или иначе ще използват интелектуалната собственост на хората, трябва да има ясни пътища или рамки за разработчиците на AI и притежателите на права да си сътрудничат, особено по отношение на финансови компенсации, ако производната работа на такива интелектуални собствености е комерсиализиран.

Регулирането на ИИ е отчаяно необходимо решение

Докато изкуственият интелект се очертава като обещаващо решение за много от нашите обществени проблеми, самият AI бързо се превръща в проблем, който се нуждае от спешно решение. Време е да направите крачка назад, да помислите и да направите необходимите корекции, за да гарантирате положителното въздействие на AI върху обществото. Отчаяно се нуждаем от спешно повторно калибриране на нашия подход към изграждането и използването на AI системи.