Дискусиите около усещането за ИИ не са нищо ново, но новините за ИИ LaMDA на Google разпалиха пламъците. След като инженер заяви, че ботът е в съзнание, дори има душа, някои познати въпроси възникнаха отново.
Може ли AI като LaMDA действително да бъде съзнателен или самосъзнателен и ако е така, как можете да разберете? Има ли значение?
Какво представлява LaMDA?
LaMDA, съкращение от езиков модел за приложения за диалог, се появи за първи път през 2021 г. на конференцията за разработчици на Google. Усъвършенстваната AI система трябва да помогне за изграждането на други, по-малки чатботове. Когато Google го представи за първи път, той обяви плановете си да го интегрира във всичко, помагайки на услуги като Google Assistant и Search да се чувстват по-човешки или поне естествени.
Когато инженерът на Google Блейк Лемоан разговаря с LaMDA, за да види дали използва реч на омразата, той остана с различно впечатление. Lemoine твърдеше, че LaMDA е разумен и ако не знаеше, че е бот, би помислил, че е осемгодишно дете.
След разговорите си с LaMDA, Lemoine се опита да докаже, че е в съзнание и да защити това, което вярваше, че са законните му права. В отговор Google пусна Lemoine в платен административен отпуск за нарушаване на споразуменията за поверителност.
LaMDA наистина ли е разумен?
И така, LaMDA наистина ли е разумна? Повечето експерти, които са обсъждали въпроса, са скептични. LaMDA е много напреднала AI чат платформа, анализираща трилиони думи от интернет, така че е умела да звучи като истински човек.
Това не е първият път, когато един от изкуствения интелект на Google заблуждава хората да си мислят, че е човек. През 2018 г. Google демонстрира своя Duplex AI, като се обади в ресторант, за да резервира маса. В нито един момент служителят от другата страна не се усъмни, че говорят с човек.
Чувството е трудно да се дефинира, въпреки че повечето хора съмнявам се, че AI е достигнал тази точка още. Важният въпрос обаче може да не е дали LaMDA наистина е разумен, а каква е разликата, ако може да заблуди хората да си мислят, че е такъв.
Възможни правни последици от LaMDA
Ситуацията с LaMDA повдига много правни и етични въпроси. Първо, някои хора може да се запитат дали Google е бил прав да остави Лемоан в отпуск, защото е говорил за това.
Съгласно раздел 740 от Закона за труда на Ню Йорк защитата на подателите на нередности защитава служителите от такива последствия, ако смятат, че практиките на техния работодател нарушават закона или представляват значителен риск за обществото безопасност. Предполагаемата чувствителност на LaMDA не отговаря съвсем на това законово изискване, но трябва ли?
Даването на права за AI е трудна тема. Докато AI може създавайте неща и изглеждайте хора, можете да попаднете в някои сложни ситуации, ако тези машини имат законова защита. Законовите права действат около награди и наказания, които не засягат ИИ, което усложнява правосъдието.
Ако самоуправляваща се кола блъсне пешеходец, виновен ли е AI, ако законът го третира като човек? И ако е така, това не дава стриктно справедливост на жертвата, тъй като технически не можете да накажете ИИ по същия начин, както бихте направили човек.
Друг въпрос, който възниква при LaMDA и подобни AI чатботове, е тяхната сигурност. Ако тези ботове изглеждат убедително реални, хората може да им се доверят повече и да са готови да им дадат по-чувствителна информация. Това отваря вратата към множество опасения за поверителността и сигурността, ако тази технология попадне в неподходящи ръце.
AI въвежда сложни етични въпроси
AI като LaMDA продължава да става все по-усъвършенстван и реалистичен. Тъй като тази тенденция нараства, компаниите и законодателите трябва да преоценят начина, по който третират ИИ и как тези решения могат да повлияят на правосъдието и сигурността.
В сегашния си вид LaMDA AI на Google може да не е разумен, но е достатъчно добър, за да подмами хората да си мислят, че е, което трябва да предизвика някои тревоги.