AI не е готов да ни унищожи... още.

Изкуственият интелект е тема на дебат от самото начало. Въпреки че страховете от подобен на Скайнет изкуствен интелект, който ще оживее и ще превземе човечеството, са меко казано ирационални, някои експерименти са дали загрижени резултати.

Един такъв експеримент е проблемът с максимизатора на кламери, мисловен експеримент, който показва, че високоинтелигентен AI, дори ако е проектиран напълно без злоба, може в крайна сметка да унищожи човечеството.

Проблемът с максимизатора на кламер е обяснен

Този мисловен експеримент, според който дори един напълно безвреден изкуствен интелект може в крайна сметка да унищожи човечеството, първо беше наречен Paperclip Maximizer, просто защото кламерите бяха избрани да показват какво би могъл да направи AI, тъй като те имат малка видима опасност и няма да причинят емоционален стрес в сравнение с други области, към които този проблем се отнася, като лечение на рак или победа войни.

Първият експеримент се появява в статията на шведския философ Ник Бостром от 2003 г.

instagram viewer
Етични проблеми в съвременния изкуствен интелект, който включва максимизатора на кламери, за да покаже екзистенциалните рискове, които може да използва достатъчно напреднал ИИ.

Проблемът представлява AI, чиято единствена цел е да направи възможно най-много кламери. Един достатъчно интелигентен изкуствен интелект рано или късно би осъзнал, че хората представляват предизвикателство за целта му по три различни причини.

  • Хората могат да изключат AI.
  • Хората могат да променят целите си.
  • Хората са направени от атоми, които могат да бъдат превърнати в кламери.

И в трите примера ще има по-малко кламери във Вселената. Следователно достатъчно интелигентен AI, чиято единствена цел е да направи възможно най-много кламери ще поеме цялата материя и енергия в обсега си и ще предотврати изключването си или променен. Както вероятно се досещате, това е много по-опасно от престъпници, използващи ChatGPT, за да хакнат вашата банкова сметка или компютър.

AI не е враждебен към хората; просто е безразлично. ИИ, който се грижи само за максимизирането на броя на кламерите, следователно ще унищожи човечеството и по същество ще ги превърне в кламери, за да постигне целта си.

Как проблемът с максимизатора на кламер се отнася за AI?

Изследванията и експерименталните споменавания на проблема с максимизатора на кламерите всички споменават хипотетичен изключително мощен оптимизатор или високо интелигентен агент като действаща страна тук. И все пак, проблемът се отнася за AI, доколкото той пасва идеално на ролята.

Идеята за максимизатор на кламери все пак е създадена, за да покаже някои от опасностите на напредналия AI. Като цяло това представлява два проблема.

  • Теза за ортогоналност: Тезата за ортогоналността е възгледът, че интелигентността и мотивацията не са взаимозависими. Това означава, че е възможно ИИ с високо ниво на обща интелигентност да не достигне до същите морални заключения като хората.
  • Инструментална конвергенция: Инструменталната конвергенция се определя като тенденция за повечето достатъчно интелигентни същества (и двете човешки и нечовешки), за да преследват подобни подцели, дори ако крайната им цел може да е напълно различен. В случай на проблема с максимизатора на кламери, това означава, че AI в крайна сметка ще поеме всеки природен ресурс и унищожаване на човечеството, само за да постигне целта си да създава все повече и повече кламери.

По-големият проблем, подчертан от максимизатора на кламери, е инструменталната конвергенция. Може също да се подчертае с помощта на хипотезата на Риман, в който случай AI, предназначен да разреши хипотезата, може много добре да реши да поеме всички Масата на Земята и я преобразувайте в компютроний (възможно най-ефективните компютърни процесори), за да изградите суперкомпютри, за да разрешите проблема и да достигнете цел.

Самият Бостром подчерта, че не вярва, че проблемът с максимизатора на кламерите някога ще бъде истински проблем, но намерението му беше да илюстрират опасностите от създаването на свръхинтелигентни машини, без да знаят как да ги контролират или програмират, за да не бъдат екзистенциално рискови за хората същества. Съвременните AI системи като ChatGPT също имат проблеми, но те са далеч от свръхинтелигентните AI системи, за които се говори в проблема с максимизирането на кламерите, така че все още няма причина за паника.

Усъвършенстваните AI системи се нуждаят от превъзходен контрол

Проблемът с максимизатора на кламерите винаги стига до едно и също заключение и подчертава проблемите на управлението на високо интелигентна и мощна система, на която липсват човешки ценности.

Въпреки че използването на кламери може да е най-популярният метод за илюстриране на проблема, то се прилага за произволен брой задачи, които може да даде на AI, било то елиминиране на рак, печелене на войни, засаждане на повече дървета или всяка друга задача, без значение колко изглежда глупав.