FraudGPT е езиков модел, прецизно настроен да подпомага престъпниците в измамни дейности. Научете какво означава да се предпазите от потенциални заплахи.
Възходът на изкуствения интелект (AI) е нож с две остриета. Като всяка трансформираща технология, AI предлага огромен потенциал, но също така и огромни рискове. Въпреки категоричния натиск за регулиране на ИИ, участниците в заплахите изглежда са изпреварили кривата.
Нов инструмент в стил ChatGPT, FraudGPT, набира популярност сред киберпрестъпниците, позволявайки им да автоматизират и изпълняват по-добре голяма част от своите операции за измами. Всеки може да стане жертва, така че е важно да сте информирани. Ето всичко, което знаем за FraudGPT досега.
Какво е FraudGPT?
FraudGPT е AI инструмент, задвижван от голям езиков модел, който е особено фино настроен, за да помогне на киберпрестъпниците да извършват киберпрестъпления. Базираният на абонамент AI инструмент позволява на участниците в заплахата да улеснят своите престъпни дейности като кардиране, фишинг и създаване на зловреден софтуер.
Въпреки че подробностите за инструмента остават много ограничени, изследователи от Netenrich, фирма за изследване на сигурността, са открили няколко реклами в тъмната мрежа, рекламиращи инструмента. Според изследователски доклад от Netenrich, абонаментните такси варират между $200 на месец и $1700 на година.
За да си представите по-добре инструмента, можете да мислите за FraudGPT като ChatGPT, но за измама. Но как точно работи FraudGPT и как киберпрестъпниците го използват?
Как работи FraudGPT?
В основата си FraudGPT не се различава значително от всеки инструмент, който се захранва от голям езиков модел. С други думи, самият инструмент е интерактивен интерфейс за престъпници за достъп до специален вид езиков модел, който е настроен за извършване на киберпрестъпления.
Все още не разбирате? Ето груба представа за какво говорим. В ранните дни на стартирането на ChatGPT, чатботът с изкуствен интелект можеше да се използва за почти всичко, включително да помага на киберпрестъпниците да създават зловреден софтуер. Това беше възможно, тъй като основният езиков модел на ChatGPT беше обучен върху набор от данни, който вероятно съдържа проби от широк набор от данни, включително данни, които биха могли да помогнат на престъпно начинание.
Големите езикови модели обикновено се захранват с всичко от добрите неща, като научни теории, здравна информация и политика, към не толкова добрите, като проби от злонамерен софтуер, съобщения от кардинг и фишинг кампании и други престъпни материали. Когато се работи с вида набори от данни, необходими за обучение на езикови модели като този, който захранва ChatGPT, е почти неизбежно моделът да съдържа проби от нежелани материали.
Въпреки обикновено щателните усилия за елиминиране на нежеланите материали в набора от данни, някои се промъкват, и те обикновено все още са достатъчни, за да дадат на модела възможността да генерира материали за улесняване киберпрестъпност. Ето защо с правото бърз инженеринг, можете да получите инструменти като ChatGPT, Google Bard и Bing AI, които да ви помогнат да пишете измамнически имейли или компютърен зловреден софтуер.
Ако инструменти като ChatGPT могат да помогнат на киберпрестъпниците да извършват престъпления въпреки всички усилия да направят тези AI chatbots безопасни, сега помислете за мощност, която инструмент като FraudGPT може да донесе, като се има предвид, че е специално фино настроен за злонамерени материали, за да бъде подходящ за киберпрестъпност. Това е като злият близнак на ChatGPT, поставен на стероиди.
Така че, за да използват инструмента, престъпниците могат просто да подканят чатбота, както биха направили с ChatGPT. Те могат да го помолят, да речем, да напише фишинг имейл за Джейн Доу, която работи в компанията ABC, или може би да го помолят да напише зловреден софтуер, използвайки C++, за да открадне всички PDF файлове от компютър с Windows 10. Престъпниците просто ще измислят зла механизация и ще оставят чатбота да върши тежката работа.
Как можете да се предпазите от FraudGPT?
Въпреки че е нов вид инструмент, заплахата, породена от FraudGPT, не е фундаментално различна. Може да се каже, че въвежда повече автоматизация и ефективност на вече установените методи за извършване на киберпрестъпления.
Престъпниците, използващи инструмента, поне теоретично биха могли да пишат по-убедителни фишинг имейли, по-добър план измами и създават по-ефективен злонамерен софтуер, но те все още биха разчитали на установените начини за изпълнение на своите престъпни планове. В резултат на това установените начини за защита все още са в сила:
- Внимавайте с непоискани съобщения, които искат информация или ви насочват да щракнете върху връзки. Не предоставяйте информация и не кликвайте върху връзки в тези съобщения, освен ако не потвърдите източника.
- Свържете се директно с компаниите, като използвате независим, потвърден номер, за да проверите легитимността. Не използвайте информацията за контакт, предоставена в подозрителни съобщения.
- Използвайте силни, уникални пароли, които са трудни за разбиване и приемете двуфакторно удостоверяване, когато е налично за всички акаунти. Никога не споделяйте изпратени до вас пароли или кодове.
- Редовно проверявайте извлеченията по сметки за подозрителна дейност.
- Поддържайте софтуера актуализиран и използвайте антивирусни или анти-зловреден софтуер инструменти.
- Унищожавайте документи, съдържащи лична информация или финансова информация, когато вече не са необходими.
За повече информация как да се защитите, прочетете нашето ръководство за как да се защитите в ерата на AI.
Бъдете информирани, за да се защитите
Появата на инструменти като FraudGPT ни напомня, че въпреки всичкото добро, което AI може да направи за нас, той все още представлява много мощен инструмент в ръцете на заплахите.
Тъй като правителствата и големите фирми за изкуствен интелект започват бясна надпревара да въведат по-добри начини за регулиране на изкуствения интелект, това е важно е да сте наясно със заплахата, която AI представлява в момента, и да вземете необходимите предпазни мерки за защита себе си.