ChatGPT е полезен за много задачи, но има някои критични недостатъци, които трябва да ви накарат да помислите два пъти, преди да му се доверите за медицински съвет.

ChatGPT – чатбот с изкуствен интелект (AI), разработен от OpenAI – се превърна в инструмент „всичко в едно“ за отговаряне на много прости и трудни въпроси, включително искания за медицински съвети. Може да отговаря на медицински въпроси и да издържа изпита за медицинско лицензиране на Съединените щати (USMLE), но не може да замени среща с лекар в болницата.

С напредването на ChatGPT има потенциала да трансформира изцяло сектора на здравеопазването. Когато се интегрира със здравните системи, това може да подобри достъпа на пациентите до грижи и да повиши ефективността на работата на лекарите. Въпреки това, тъй като е базиран на AI, съществуват няколко опасения относно неговите потенциални опасности.

1. ChatGPT има ограничени познания

ChatGPT не знае всичко. Според OpenAI, ChatGPT има ограничени познания, особено когато става въпрос за случилото се след септември 2021 г.

instagram viewer

ChatGPT няма директен достъп до търсачките или интернет. Той беше обучен с помощта на огромно количество текстови данни от множество източници, включително книги, уебсайтове и други текстове. Той не "познава" данните, които доставя. Вместо това ChatGPT използва текст, който е прочел, за да създаде прогнози за думите, които да се използват и в какъв ред.

Следователно не може да получава актуални новини за развитието в медицинските области. Да, ChatGPT не е наясно с трансплантацията на сърце от прасе на човек или каквито и да е други скорошни пробиви в медицинската наука.

2. ChatGPT може да генерира неправилна информация

ChatGPT може да отговори на въпросите, които задавате, но отговорите могат да бъдат неточни или пристрастни. Според а Цифрово здраве на PLoS проучване, ChatGPT извършено с най-малко 50% точност във всички USMLE прегледи. И въпреки че надхвърли прага от 60% за преминаване в някои аспекти, все още съществува възможност за грешка.

Освен това не цялата информация, използвана за обучение на ChatGPT, е автентична. Отговорите, базирани на непроверена или потенциално пристрастна информация, може да са неправилни или остарели. В света на медицината неточната информация може дори да струва живот.

Тъй като ChatGPT не може самостоятелно да изследва или проверява материал, той не може да прави разлика между факти и измислици. Уважавани медицински списания, включително Вестник на Американската медицинска асоциация (JAMA), имат установи строги правила, че само хора могат да пишат научни изследвания, публикувани в дневник. Като резултат, трябва постоянно да проверявате отговорите на ChatGPT.

3. ChatGPT не ви преглежда физически

Медицинските диагнози не зависят само от симптомите. Лекарите могат да получат представа за модела и тежестта на дадено заболяване чрез физическия преглед на пациента. За да диагностицират пациентите, лекарите днес използват както медицински технологии, така и петте сетива.

ChatGPT не може да извърши пълна виртуална проверка или дори физически преглед; той може да отговори само на симптомите, които предоставяте като съобщения. За безопасността и грижите на пациента, грешките при физическия преглед или пълното игнориране на физическия преглед могат да бъдат вредни. Тъй като ChatGPT не ви е прегледал физически, той ще предложи неправилна диагноза.

4. ChatGPT може да предостави невярна информация

Скорошно проучване на Медицински факултет на Университета на Мериленд по съвета на ChatGPT за скрининг на рак на гърдата установи следните резултати:

„Виждали сме в нашия опит, че ChatGPT понякога измисля фалшиви статии в списания или здравни консорциуми, за да подкрепи своите твърдения.“ — Paul Yi M.D., асистент по диагностична радиология и ядрена медицина в UMSOM

Като част от нашето тестване на ChatGPT, ние поискахме списък с нехудожествени книги, които обхващат темата за подсъзнанието. В резултат на това ChatGPT създаде фалшива книга, озаглавена „Силата на подсъзнателния ум“ от д-р Густав Кун.

Когато попитахме за книгата, тя отговори, че това е "хипотетична" книга, създадена от нея. ChatGPT няма да ви каже дали статия или книга в списание е невярна, ако не попитате допълнително.

5. ChatGPT е просто AI езиков модел

Езиковите модели функционират чрез запаметяване и обобщаване на текст, вместо да изследват или изучават състоянието на пациента. Въпреки генерирането на отговори, които отговарят на човешките стандарти по отношение на език и граматика, ChatGPT все още съдържа редица проблеми, подобно на други AI ботове.

ChatGPT не е заместител на вашия лекар

Човешките лекари винаги ще са необходими, за да вземат окончателно решение относно здравните решения. ChatGPT обикновено съветва да говорите с лицензиран медицински специалист, когато поискате медицински съвет.

Инструменти, базирани на изкуствен интелект, като ChatGPT, могат да се използват за насрочване на прегледи при лекар, подпомагане на пациентите при получаване на лечение и поддържане на тяхната здравна информация. Но не може да замени лекарския опит и съпричастност.

Не трябва да разчитате на базиран на изкуствен интелект инструмент за диагностициране или лечение на вашето здраве, независимо дали е физическо или психическо.