Експертите смятат, че AI ще сложи край на човечеството, каквото го познаваме, така че какво се прави, за да не се случи това?

За пореден път група от водещи изследователи на ИИ и технологични фирми предупредиха, че настоящото бързо развитие на изкуствения интелект може да доведе до катастрофа за човечеството.

Рисковете обхващат ядрени конфликти, болести, дезинформация и избягал изкуствен интелект без надзор, всички от които представляват непосредствена заплаха за човешкото оцеляване.

Но няма да бъде загубено, че много от тези предупреждения идват от едни и същи хора, ръководещи разработването на AI и прокарващи инструменти и програми за изкуствен интелект в съответните им компании.

Защо технологичните компании и AI учените предупреждават за риска от AI?

На 30 май 2023 г. повече от 350 AI изследователи, разработчици и инженери пуснаха съвместно подписано изявление, предупреждаващо срещу заплахата от AI за човечеството.

Намаляването на риска от изчезване от ИИ трябва да бъде глобален приоритет наред с други рискове от обществен мащаб като пандемии и ядрена война.

instagram viewer

Подписалите се на Safe.ai изявление включваше Сам Алтман от OpenAI, Демис Хасабис от Google DeepMind и Дарио Амодей от Anthropic, заедно с Тюринг Носителите на наградата Джефри Хинтън и Йошуа Бенгио (въпреки че Ян Лекун, който също спечели същата награда, пропусна да подпише). Списъкът е почти кой кой е в света на разработката на AI – хората, които са водещи с AI – но всички те са тук, предупреждавайки, че AI може да доведе до катастрофа за човечеството.

Това е кратко изявление, което изяснява заплахите, като конкретно цитира две ключови области, които биха могли да застрашат света, какъвто го познаваме: ядрената война и глобалните здравни проблеми. Докато заплахата от ядрен конфликт е тревожна, рискът от пандемия е по-осезаема заплаха за повечето.

Въпреки това, не само глобална пандемия може да причини здравословни проблеми, свързани с ИИ. Пазителят съобщава за няколко други здравословни проблеми с ИИ, които биха могли да засегнат хората, ако не бъдат проверени преди широкото използване. Един пример, свързан с използването на захранвани с AI оксиметри, които „надценяват нивата на кислород в кръвта при пациенти с по-тъмна кожа, което води до недостатъчно лечение на тяхната хипоксия“.

Освен това, това не е първият път, когато група технологични лидери призовават за пауза или сериозна преоценка на развитието на ИИ. През март 2023 г. Илон Мъск и други изследователи на AI подписаха подобен призив за действие с искане за мораториум върху разработването на AI, докато не бъдат приложени повече регулации, които да помогнат за насочването на процеса.

Какъв е рискът от ИИ?

Повечето от рисковете, свързани с изкуствения интелект, поне в този контекст, са свързани с развитието на неуспешна технология за изкуствен интелект което надхвърля възможностите на хората, в което в крайна сметка се обръща срещу своя създател и унищожава живота, какъвто го познаваме то. Това е история, описана безброй пъти в научна фантастика, но реалността сега е по-близо, отколкото си мислим.

Големите езикови модели (които са в основата на инструменти като ChatGPT) драстично увеличават възможностите си. Въпреки това, инструменти като ChatGPT имат много проблеми, като присъщи пристрастия, опасения за поверителността и AI халюцинации, да не говорим за способността му да бъде джейлбрейкнат, за да действа извън границите на своите програмирани правила и условия.

Тъй като големите езикови модели се увеличават и имат повече точки за данни, на които да се позовават, заедно с достъп до интернет и още разбиране на текущите събития, изследователите на ИИ се страхуват, че един ден може, по думите на главния изпълнителен директор на OpenAI Сам Алтман, „да стане доста погрешно."

Как правителствата регулират развитието на ИИ, за да спрат рисковете?

Регулирането на ИИ е от ключово значение за предотвратяване на рискове. В началото на май 2023 г. Сам Алтман призова за повече регулиране на ИИ, заявявайки, че „регулаторната намеса от страна на правителствата ще бъде от решаващо значение за смекчаване на рисковете от все по-мощни модели“.

Тогава Европейският съюз обяви закона за ИИ, регламент, предназначен да осигури много по-силна рамка за развитие на ИИ в целия ЕС (с много регламенти, преливащи в други юрисдикции). Алтман първоначално заплаши, че ще изтегли OpenAI от ЕС, но след това отхвърли заплахата си и се съгласи, че компанията ще се съобрази с регламента за ИИ, който той поиска преди това.

Независимо от това, ясно е, че регулирането на развитието и употребата на AI е важно.

Ще сложи ли AI край на човечеството?

Тъй като голяма част от дебата около тази тема е изграден върху хипотетични хипотези за силата на бъдещите версии на AI, има проблеми около дълголетието и силата, които всяка регулация на AI може да има. Как най-добре да се регулира индустрия, която вече се движи с хиляда мили в минута и пробиви в развитието се случват ежедневно?

Освен това все още има известно съмнение относно възможностите на AI като цяло и къде ще стигне той. Докато онези, които се страхуват от най-лошото, посочват, че изкуственият общ интелект се превръща в човешки властелин, други посочват, че факт, че настоящите версии на AI не могат дори да отговарят на елементарни математически въпроси и че напълно самоуправляващите се автомобили все още са начин изключено.

Трудно е да не се съгласим с тези, които гледат към бъдещето. Много от хората, които крещят най-силно за проблемите, които AI може да създаде, са на шофьорското място и гледат накъде бихме се запътили. Ако те са тези, които изискват регулиране на ИИ, за да ни предпазят от потенциално ужасяващо бъдеще, може би е време да се вслушаме.