Генеративният AI е страхотен, но винаги представя информацията си с абсолютен авторитет. Което е страхотно, освен ако не халюцинира истината.

Халюцинациите на изкуствения интелект (AI) звучат объркващо. Сигурно си мислите: „Халюцинациите не са ли човешки феномен?“ Е, да, преди беше само човек феномен, докато AI не започна да проявява човешки характеристики като лицево разпознаване, самообучение и реч разпознаване.

За съжаление AI придоби някои негативни качества, включително халюцинации. И така, AI халюцинациите подобни ли са на халюцинациите, които изпитват хората?

Какво е AI халюцинация?

Халюцинациите на изкуствения интелект възникват, когато AI модел генерира резултати, различни от очакваните. Обърнете внимание, че някои AI модели са обучени да генерират умишлено изходи, които не са свързани с входни данни от реалния свят (данни).

Например, най-добрите AI генератори на текст към изкуство, като DALL-E 2, могат творчески да генерират нови изображения, които можем да маркираме като „халюцинации“, тъй като не се основават на данни от реалния свят.

instagram viewer

AI халюцинация в големи модели за обработка на език

Нека да разгледаме как би изглеждала халюцинацията на AI в голям модел за обработка на език като ChatGPT. Халюцинация на ChatGPT би довела до това, че ботът ви дава неверен факт с някакво твърдение, така че естествено да приемете такива факти за истина.

С прости думи, това са измислени изявления от изкуствено интелигентния чатбот. Ето един пример:

При по-нататъшно запитване ChatGPT се появи с това:

AI халюцинации в компютърното зрение

Нека разгледаме друга област на AI, която може да изпита AI халюцинация: Компютърно зрение. Тестът по-долу показва монтаж на 4x4 с два обекта, които изглеждат толкова еднакви. Изображенията са смесица от картофен чипс и листа за барбекю.

Предизвикателството е да изберете картофения чипс, без да удряте листа в монтажа. Това изображение може да изглежда сложно за компютъра и може да не е в състояние да направи разлика между картофения чипс за барбекю и листата.

Ето още един монтаж със смесица от изображения на пудел и свински конец. Компютърът най-вероятно не би могъл да ги разграничи, следователно смесвайки изображенията.

Защо се появява AI халюцинация?

AI халюцинация може да възникне поради противоположни примери - входни данни, които подвеждат AI приложение да ги класифицира погрешно. Например, когато обучават AI приложения, разработчиците използват данни (изображение, текст или други); ако данните са променени или изкривени, приложението интерпретира входа по различен начин, давайки грешен резултат.

За разлика от тях, човек все още може да разпознае и идентифицира точно данните въпреки изкривяванията. Можем да маркираме това като здрав разум - човешки атрибут, който AI все още не притежава. Вижте как изкуственият интелект се заблуждава със съпернически примери в това видео:

По отношение на големи езикови модели като напр ChatGPT и неговите алтернативи, халюцинациите могат да възникнат от неточно декодиране от трансформатора (модел на машинно обучение).

В AI трансформаторът е модел за дълбоко обучение, който използва самовнимание (семантични връзки между думите в изречение), за да произведе текст, подобен на това, което човек би написал, използвайки енкодер-декодер (вход-изход) последователност.

Така трансформаторите, полу-контролиран модел за машинно обучение, могат да генерират ново тяло от текст (изход) от големия корпус от текстови данни, използвани в неговото обучение (вход). Той прави това, като предвижда следващата дума в поредица въз основа на предишните думи.

Що се отнася до халюцинациите, ако езиков модел е бил обучен върху недостатъчни и неточни данни и ресурси, се очаква изходът да бъде измислен и неточен. Езиковият модел може да генерира история или разказ без логически несъответствия или неясни връзки.

В примера по-долу ChatGPT беше помолен да даде дума, подобна на „бунт“ и започваща с „б“. Ето неговия отговор:

При по-нататъшно проучване той продължаваше да дава грешни отговори с високо ниво на увереност.

Така че защо ChatGPT не може да даде точен отговор на тези подкани?

Възможно е езиковият модел да не е оборудван да обработва доста сложни подкани като тези или онова не може да интерпретира подканата точно, игнорирайки подканата при даване на подобна дума с конкретна азбука.

Как разпознавате AI халюцинация?

Сега е очевидно, че AI приложенията имат потенциала да халюцинират - да генерират отговори, различни от очаквания резултат (факт или истина) без никакво злонамерено намерение. А забелязването и разпознаването на AI халюцинации зависи от потребителите на такива приложения.

Ето няколко начина за забелязване на AI халюцинации, докато използвате обичайни AI приложения:

1. Големи модели за езикова обработка

Макар и рядко, ако забележите граматична грешка в съдържанието, създадено от голям модел за обработка, като ChatGPT, това трябва да повдигне вежда и да ви накара да подозирате халюцинация. По същия начин, когато генерираното от текст съдържание не звучи логично, не корелира с дадения контекст или не съответства на входните данни, трябва да подозирате халюцинация.

Използването на човешка преценка или здрав разум може да помогне за откриването на халюцинации, тъй като хората могат лесно да идентифицират кога даден текст няма смисъл или не следва реалността.

2. Компютърно зрение

Като клон на изкуствения интелект, машинното обучение и компютърните науки, компютърното зрение дава възможност на компютрите да разпознават и обработват изображения като човешки очи. Използвайки конволюционни невронни мрежи, те разчитат на невероятното количество визуални данни, използвани в тяхното обучение.

Отклонението от моделите на визуалните данни, използвани в обучението, ще доведе до халюцинации. Например, ако компютърът не е обучен с изображения на топка за тенис, той може да я идентифицира като зелен портокал. Или ако компютърът разпознае кон до човешка статуя като кон до истински човек, тогава се е появила халюцинация на AI.

Така че, за да забележите халюцинация на компютърно зрение, сравнете генерирания резултат с това, което се очаква да види [нормален] човек.

3. Самоуправляващи се автомобили

Кредит за изображение: Форд

Благодарение на изкуствения интелект, самоуправляващите се автомобили постепенно навлизат на автомобилния пазар. Пионерите като Tesla Autopilot и BlueCruise на Ford защитават сцената на самоуправляващите се автомобили. Можете да проверите как и какво вижда автопилотът на Tesla за да разберете малко как AI захранва самоуправляващите се коли.

Ако притежавате една от тези коли, бихте искали да знаете дали вашата AI кола халюцинира. Един признак ще бъде, ако вашето превозно средство изглежда се отклонява от нормалните си модели на поведение по време на шофиране. Например, ако превозното средство спре или внезапно завие без видима причина, вашето превозно средство с изкуствен интелект може да халюцинира.

AI системите също могат да халюцинират

Хората и AI моделите изпитват халюцинации по различен начин. Когато става дума за AI, халюцинациите се отнасят до погрешни резултати, които са на километри от реалността или нямат смисъл в контекста на дадената подкана. Например, AI чатбот може да даде граматически или логически неправилен отговор или да идентифицира погрешно обект поради шум или други структурни фактори.

AI халюцинациите не са резултат от съзнателен или подсъзнателен ум, както бихте наблюдавали при хората. По-скоро това е резултат от неадекватност или недостатъчност на данните, използвани при обучението и програмирането на AI системата.