Все повече компании забраняват ChatGPT на работното място, но какво се крие зад забраните?
Въпреки впечатляващите му способности, няколко големи компании забраниха на служителите си да използват ChatGPT.
През май 2023 г. Samsung забрани използването на ChatGPT и други генеративни AI инструменти. След това, през юни 2023 г. Commonwealth Bank of Australia последва примера, заедно с компании като Amazon, Apple и JPMorgan Chase & Co. Някои болници, адвокатски кантори и правителствени агенции също са забранили на служителите да използват ChatGPT.
И така, защо все повече компании забраняват ChatGPT? Ето пет основни причини.
1. Изтичане на данни
ChatGPT изисква голямо количество данни за обучение и ефективна работа. Чатботът беше обучен с помощта на огромно количество данни, извлечени от интернет, и продължава да се обучава.
Според Помощна страница на OpenAI, всяка част от данните, включително поверителни данни за клиенти, търговски тайни и чувствителен бизнес информацията, която предоставяте на чатбота, подлежи на преглед от неговите обучители, които може да използват вашите данни за подобряване техните системи.
Много компании са обект на строги разпоредби за защита на данните. В резултат на това те са предпазливи при споделянето на лични данни с външни лица, тъй като това увеличава рисковете от изтичане на данни.
Освен това OpenAI не предлага безупречна защита на данните и гаранция за поверителност. През март 2023 г. OpenAI потвърден грешка, позволяваща на някои потребители да преглеждат заглавията на чатовете в хронологията на други активни потребители. Въпреки че тази грешка беше коригирана и OpenAI стартира програма за награди за грешки, компанията не гарантира безопасността и поверителността на потребителските данни.
Много организации избират да ограничат служителите да използват ChatGPT, за да избегнат изтичане на данни, което може да навреди на тяхната репутация, да доведе до финансови загуби и да изложи клиентите и служителите им риск.
2. Рискове за киберсигурността
Докато не е ясно дали ChatGPT е наистина предразположен към рискове за киберсигурността, има вероятност внедряването му в рамките на организация да въведе потенциални уязвимости, които кибератакерите могат да използват.
Ако една компания интегрира ChatGPT и има слабости в системата за сигурност на чатбота, нападателите може да са в състояние да използват уязвимостите и да инжектират злонамерени кодове. Освен това способността на ChatGPT да генерира човешки отговори е златно яйце за фишинг нападателите, които могат през акаунт или да се представят за легитимни субекти, за да заблудят служителите на компанията да споделят чувствителни информация.
3. Създаване на персонализирани чатботове
Въпреки иновативните си функции, ChatGPT може да генерира невярна и подвеждаща информация. В резултат на това много компании създадоха AI чатботове за работни цели. Например Commonwealth Bank of Australia помоли служителите си да използват вместо това Gen.ai, чатбот с изкуствен интелект (AI), който използва информацията на CommBank, за да предоставя отговори.
Компании като Samsung и Amazon са разработили усъвършенствани модели на естествен език, така че фирмите могат лесно да създават и внедряват персонализирани чатботове въз основа на съществуващи преписи. С тези вътрешни чатботове можете да предотвратите правните последици и последиците за репутацията, свързани с неправилното боравене с данни.
4. Липса на регулация
В индустрии, където компаниите са обект на регулаторни протоколи и санкции, липсата на регулаторни насоки на ChatGPT е червен флаг. Без точни регулаторни условия, регулиращи използването на ChatGPT, компаниите могат да се сблъскат със сериозни правни последици, когато използват AI chatbot за своите операции.
Освен това липсата на регулация може да намали отчетността и прозрачността на компанията. Повечето компании може да са объркани да обяснят Процеси на вземане на решения и мерки за сигурност на езиковия модел на изкуствен интелект на своите клиенти.
Компаниите ограничават ChatGPT, опасявайки се от потенциални нарушения на законите за поверителност и специфичните за индустрията разпоредби.
5. Безотговорна употреба от служители
В много компании някои служители разчитат единствено на отговорите на ChatGPT, за да генерират съдържание и да изпълняват задълженията си. Това поражда мързел в работната среда и спира креативността и иновациите.
Зависимостта от AI може да попречи на способността ви да мислите критично. Това също може да навреди на доверието в компанията, тъй като ChatGPT често предоставя неточни и ненадеждни данни.
Въпреки че ChatGPT е мощен инструмент, използването му за адресиране на сложни заявки, изискващи специфичен за домейн опит, може да навреди на работата и ефективността на компанията. Някои служители може да не запомнят да проверят фактите и да потвърдят отговорите, предоставени от AI чатбота, като третират отговорите като универсално решение.
За да смекчат проблеми като тези, компаниите налагат забрани на чатбота, така че служителите да могат да се съсредоточат върху задачите си и да предоставят решения без грешки на потребителите.
Забрани на ChatGPT: По-добре безопасно, отколкото да съжалявате
Компаниите, забраняващи ChatGPT, посочват рискове за киберсигурността, етичните стандарти на служителите и предизвикателства за съответствие с нормативните изисквания. Неспособността на ChatGPT да облекчи тези предизвикателства, като същевременно предоставя индустриални решения, свидетелства за неговите ограничения и трябва да се развива допълнително.
Междувременно компаниите преминават към алтернативни чатботове или просто ограничават служителите да използват ChatGPT, за да се избегнат потенциални пробиви на данни и ненадеждни протоколи за сигурност и регулаторни протоколи, свързани с чатбот.