Със съвременните езикови модели на AI като ChatGPT и Bing Chat на Microsoft, които правят вълни по целия свят, редица хора се притесняват, че AI ще превземе света.

Въпреки че няма да се сблъскаме със SkyNet в обозримо бъдеще, AI става по-добър от хората в няколко неща. Това е мястото, където проблемът с AI контрола влиза в игра.

Обяснен е проблемът с управлението на AI

Проблемът с контрола на AI е идеята, че AI в крайна сметка ще стане по-добър във вземането на решения от хората. В съответствие с тази теория, ако хората не настроят нещата правилно предварително, няма да имаме шанс да поправим нещата по-късно, което означава, че AI ще има ефективен контрол.

Текущите изследвания върху моделите на ИИ и машинното обучение (ML) са най-малкото на години от това да надминат човешките способности. Въпреки това е разумно да се мисли, че като се има предвид настоящият напредък, AI ще надмине хората по отношение на интелигентност и ефективност.

Това не означава, че AI и ML моделите нямат своите ограничения. В крайна сметка те са обвързани от законите на физиката и изчислителната сложност, както и от процесорната мощност на устройствата, които поддържат тези системи. Безопасно е обаче да се предположи, че тези граници са далеч отвъд човешките възможности.

instagram viewer

Това означава, че свръхинтелигентен AI системите могат да представляват голяма заплаха ако не е правилно проектиран с предпазни мерки, за да се провери всяко потенциално измамно поведение. Такива системи трябва да бъдат изградени от самото начало, за да зачитат човешките ценности и да контролират силата им. Ето какво означава проблемът с контрола, когато казва, че нещата трябва да бъдат настроени правилно.

Ако една AI система надмине човешкия интелект без подходящите предпазни мерки, резултатът може да бъде катастрофален. Такива системи могат да поемат контрол върху физическите ресурси, тъй като много задачи се изпълняват по-добре или по-ефективно. Тъй като AI системите са проектирани да постигат максимална ефективност, загубата на контрол може да доведе до тежки последствия.

Кога се прилага проблемът с AI Control?

Основният проблем е, че колкото по-добра става една AI система, толкова по-трудно е за човешкия надзорник да наблюдава технологията, за да гарантира, че ръчният контрол може да бъде поет лесно, ако системата се повреди. Освен това човешката склонност да разчита на автоматизирана система е по-висока, когато системата работи надеждно през повечето време.

Чудесен пример за това е Пакетът за пълно самостоятелно управление на Tesla (FSD).. Въпреки че колата може да се управлява сама, тя изисква човек да държи ръцете си на волана, готов да поеме контрола над колата, ако системата се повреди. Въпреки това, тъй като тези AI системи стават по-надеждни, вниманието дори на най-бдителния човек ще започне да варира и зависимостта от автономната система ще се увеличи.

И така, какво се случва, когато колите започнат да се движат със скорости, които хората не могат да издържат? В крайна сметка ще предадем контрола на автономните системи на автомобила, което означава, че AI система ще контролира живота ви, поне докато стигнете до вашата дестинация.

Може ли проблемът с AI контрола да бъде решен?

Има два отговора дали проблемът с управлението на AI може да бъде решен или не. Първо, ако тълкуваме въпроса буквално, проблемът с контрола не може да бъде решен. Нищо не можем да направим, което да се насочи директно към човешката склонност да разчита на автоматизирана система, когато тя работи надеждно и по-ефективно през повечето време.

Въпреки това, ако тази тенденция се отчете като характеристика на такива системи, можем да измислим начини да заобиколим проблема с контрола. Например, на Алгоритмично вземане на решения и проблемът с управлението изследователската статия предлага три различни метода за справяне със затрудненото положение:

  • Използването на по-малко надеждни системи изисква човек да се ангажира активно със системата, тъй като по-малко надеждните системи не създават проблем с контрола.
  • Да изчакате системата да надхвърли човешката ефективност и надеждност преди внедряване в реалния свят.
  • За прилагане само на частична автоматизация чрез декомпозиция на задачите. Това означава, че само онези части от системата, които не изискват човешки оператор за изпълнение на важна задача, са автоматизирани. Нарича се подход на динамично/допълнително разпределение на функцията (DCAF).

Подходът на DCAF винаги поставя човешки оператор начело на автоматизирана система, като гарантира, че тяхното въвеждане контролира най-важните части от процеса на вземане на решения в системата. Ако системата е достатъчно активна, за да може човешкият оператор да обръща внимание постоянно, проблемът с контрола може да бъде решен.

Можем ли някога наистина да контролираме AI?

Тъй като системите за изкуствен интелект стават все по-напреднали, способни и надеждни, ние ще продължим да разтоварваме повече задачи върху тях. Проблемът с контрола на AI обаче може да бъде решен с правилните предпазни мерки и предпазни мерки.

AI вече променя света за нас, предимно към по-добро. Докато технологията се държи под човешки надзор, не трябва да има за какво да се тревожим.