Развитието на AI напредва бързо, но кой трябва да ръководи AI и неговото въздействие върху света?
Ключови изводи
- AI се нуждае от по-строг мониторинг, тъй като продължават да се появяват уязвимости в киберсигурността и опасения за поверителността.
- Правителството, технологичните компании и крайните потребители играят роля в регулирането на ИИ, но всеки подход има своите ограничения.
- Медиите, организациите с нестопанска цел, асоциациите на технологичната индустрия, академичните институции и правоприлагащите агенции също допринасят за регулирането на AI.
Широката общественост има различни възгледи за ИИ – някои вярват, че машините ще заменят изцяло човешките работници, докато други твърдят, че ИИ е мода. Едно нещо, с което всички са съгласни обаче, е, че AI се нуждае от по-стриктно наблюдение.
Въпреки важността на регулирането на изкуствения интелект, той остана на заден план пред обучението. Разработчиците са толкова обсебени от изграждането на следващия най-голям AI модел, че търгуват с киберсигурността за бърз напредък. Въпросът не е дали AI се нуждае от регулиране; това е кой управляващ орган с подходящо финансиране, човешки ресурси и технологичен капацитет ще поеме инициативата.
И така, кой трябва да регулира ИИ?
Държавни органи
Различни хора, от потребители до технологични лидери се надяват правителството да регулира ИИ. Публично финансираните институции разполагат с необходимите ресурси за това. Дори Илон Мъск и Сам Олтман, двама основни двигатели на надпреварата за ИИ, вярват, че някои опасения за поверителността около AI са твърде опасни, за да бъдат пренебрегнати от ръководните органи.
Правителството трябва да се съсредоточи върху защитата на поверителността и гражданските свободи на своите избиратели, ако поеме регулирането на ИИ. Киберпрестъпниците продължават да намират начини да използват AI системи в своите схеми. Индивиди, които не са добре запознати с изкуствения интелект, могат лесно да бъдат измамени от синтезирани гласове, дълбоки фалшиви видеоклипове и онлайн профили, управлявани от ботове.
Въпреки това, един основен проблем с правителството, регулиращо ИИ, е, че може неволно да задуши иновациите. AI е сложна, развиваща се технология. Освен ако длъжностните лица, които наблюдават насоките за внедряване, развитие и обучение, не разбират как работи AI, те могат да направят преждевременни, неефективни преценки.
Разработчици на AI, технологични компании и лаборатории
Като се имат предвид потенциалните пречки, които могат да възникнат от правителствения мониторинг на ИИ, мнозина биха предпочели технологичните компании да оглавят регулирането. Те вярват, че разработчиците трябва да носят отговорност за технологиите, които пускат. Саморегулирането им позволява да стимулират иновациите и да се съсредоточат върху ефективното развитие на тези системи.
Освен това, тяхното задълбочено разбиране на AI ще им помогне да направят справедливи, информирани насоки, даващи приоритет на безопасността на потребителите, без да компрометират функционалността. Както при всяка друга технология, експертизата в индустрията рационализира мониторинга. Назначаването на необучени служители да регулират технологии, които те едва разбират, може да създаде повече проблеми, отколкото ползи.
Вземете като пример изслушването в Сената на САЩ за законите за поверителност на данните на Facebook. В този доклад от Вашингтон пост, ще видите, че много законодатели са объркани с основните функции на Facebook. Така че, освен ако Сенатът на САЩ не създаде единствен отдел от технически специалисти, те вероятно не са квалифицирани да регулират такава напреднала, постоянно променяща се система като AI.
Въпреки това, основният проблем с технологичните компании, които се регулират, е, че сенчестите корпорации могат да злоупотребят с властта си. Без да се намесва трета страна, те всъщност са свободни да правят каквото си искат.
Крайни потребители
Някои се страхуват, че правителството и частните субекти ще злоупотребят със системите за изкуствен интелект. Те не са сигурни относно предоставянето на шепа управляващи органи на пълен контрол върху такива мощни технологии, особено след като AI все още се развива. В крайна сметка те биха могли да се борят за власт, вместо да работят за ефективно регулиране.
За да смекчат тези рискове, скептиците вярват, че крайните потребители заслужават свобода да използват AI моделите както искат. Те казват, че държавните органи трябва да се намесват само когато потребителите на AI нарушават закона. Това е амбициозна цел, но технически може да бъде постигната, ако разработчиците на AI с отворен код доминират пазарните дялове.
Въпреки това, тази настройка поставя хората, които не са запознати с технологиите, в неизгодно положение. Потребителите са отговорни за определянето на ограниченията в своите системи - за съжаление, не всеки има ресурсите да го направи.
Също така е недалновидно да се премахват патентовани модели от пазара. Разпространението на AI моделите с отворен код имат няколко положителни и отрицателни въздействия; за някои минусите са повече от плюсовете.
Други субекти, които играят роля в регулирането на ИИ
Въпреки че основните субекти ще ръководят регулирането на AI, има органи, които играят значителна роля:
Медиите играят критична роля при формирането на възприятието на обществото за ИИ. Те съобщават за развитието на индустрията, споделят нови инструменти, повишават осведомеността за вредните употреби на ИИ и интервюират експерти относно съответните проблеми.
Повечето от фактите, които крайните потребители знаят за AI, основно идват от медиите. Публикуването на неверни данни, нарочно или не, ще причини необратими щети – не можете да подценявате колко бързо се разпространява дезинформацията.
2. Неправителствени организации
Няколко организации с нестопанска цел са съсредоточени около защитата на поверителността и гражданските свободи на потребителите на AI. Те образоват обществеността чрез безплатни ресурси, застъпват се за нови политики, сътрудничат си с държавни служители и изразяват пренебрегвани опасения.
Единственият проблем с НПО е, че те обикновено нямат достатъчно ресурси. Тъй като не са свързани с правителството, те разчитат на частни искания и дарения за ежедневните операции. За съжаление, само няколко организации получават адекватно финансиране.
3. Асоциации на технологичната индустрия
Асоциациите на технологичната индустрия, фокусирани върху AI, могат да представляват правата и интересите на обществото. Подобно на организациите с нестопанска цел, те работят със законодатели, представляват заинтересовани лица, застъпват се за справедливи политики и повишават осведомеността по конкретни проблеми.
Разликата обаче е, че те често имат връзки с частни компании. Техните членове все още правят молби, но обикновено ще получат достатъчно финансиране от своите родителски организации, стига да постигат резултати.
4. Академични институции
Въпреки че AI идва с няколко риска, той по своята същност е неутрален. Всички пристрастия, проблеми с поверителността, грешки в сигурността и потенциални киберпрестъпни дейности произтичат от хората, така че ИИ сам по себе си не е нещо, от което да се страхувате.
Но много малко вече разбират как работят съвременните AI модели. Погрешните схващания изкривяват представата на хората за ИИ, поддържайки безпочвени страхове като ИИ да превземе човечеството или да открадне работни места.
Академичните институции биха могли да запълнят тези пропуски в образованието чрез достъпни ресурси. Все още няма твърде много научни трудове за съвременни LLMs и NLP системи. Обществеността може да използва AI по-отговорно и да се бори с киберпрестъпленията, ако разбира напълно как работи.
5. Правоприлагащите органи
Правоприлагащите органи трябва да очакват да се сблъскат с повече Кибератаки с AI. С разпространението на генеративни модели, мошениците могат бързо да синтезират гласове, да генерират дълбоки фалшиви изображения, да изстъргват лична информация (PII) и дори създават изцяло нови личности.
Повечето агенции не са оборудвани да се справят с тези престъпления. Те трябва да инвестират в нови системи и да обучават служителите си на модерни киберпрестъпления; в противен случай те ще имат проблеми да хванат тези мошеници.
Бъдещето на регулирането на ИИ
Като се има предвид бързият характер на AI, малко вероятно е един управляващ орган да го контролира. Да, технологичните лидери ще притежават повече власт от потребителите, но различни субекти трябва да си сътрудничат, за да управляват рисковете от ИИ, без да възпрепятстват напредъка. Най-добре е да зададете контролни мерки сега, докато изкуственият общ интелект (AGI) все още е далечна цел.
Въпреки това регулацията на AI е също толкова далечна, колкото и AGI. Междувременно потребителите трябва да спазват практиките за безопасност, за да се борят със заплахи, управлявани от AI. Добрите навици като ограничаване на хората, с които се свързвате онлайн, и защитата на вашата цифрова PII вече са много важни.