Киберпреступники не очень-то жалуют ChatGPT
Поставщики услуг безопасности изучают, как киберпреступники используют ChatGPT & Co. Оказывается, хотя они и используют большие языковые модели, но считают их возможности завышенными и излишними. Тем не менее, сочетание преступников и ChatGPT опасно.
Ровно год назад был выпущен чатбот ChatGPT, который вызвал большой ажиотаж практически на пустом месте. Возможности большой языковой модели (LLM) действительно огромны, отчасти благодаря ее универсальности. ChatGPT также может писать и улучшать код. Поэтому с самого начала было опасение, что ИИ может быть использован для создания вредоносного ПО.
Однако преступные хакеры практически никогда не использовали ChatGPT для этих целей, как выяснили две компании, занимающиеся безопасностью, в ходе отдельных расследований. Эксперты-криминалисты даже считали модель переоцененной или даже излишней, пишет Sophos в недавнем отчете. Ранее к аналогичному выводу пришла компания Trend Micro в своем исследовании.
Чтобы получить представление о криминальном использовании ИИ, поставщики услуг безопасности проанализировали чаты на форумах даркнета, в которых киберпреступники обсуждают ChatGPT & Co. Sophos обнаружила, что ИИ не является там горячей темой. На двух форумах эксперты компании обнаружили всего около 100 сообщений на эту тему, в то время как о криптовалютах там было почти 1 000.
У профессионалов есть опасения.
Среди прочего, они подозревают, что многие киберпреступники все еще считают генеративный ИИ находящимся в зачаточном состоянии. Кроме того, дискуссии о нем на форумах в даркнете не так выгодны, как в социальных сетях, где они могут привлечь большое внимание.
По данным Sophos, многие преступники также опасаются, что использование ИИ может оставить следы, которые могут быть обнаружены антивирусными программами. Программное обеспечение, отслеживающее конечные устройства в сетях в режиме реального времени (Endpoint Detection and Response: EDR), также может их вычислить.
Возражения против ИИ вполне обоснованны. Участники форума часто являются преступниками, но среди них есть очень способные хакеры, которые знают, как оценить сложную новую технологию. Как выяснили Trend Micro и Sophos, они почти никогда не используют ChatGPT & Co. для создания вредоносных программ.
Совершенствование кода и социальная инженерия
Вместо этого, как и другие разработчики, они в основном используют большие языковые модели для улучшения своего кода. Преступники также любят использовать ChatGPT для социальной инженерии, чтобы сделать свои спам- и фишинговые кампании более успешными. В частности, им нужны обманчиво подлинные электронные письма, которые побуждают пользователей открывать зараженные вложения или переходить по опасным ссылкам.
Камерон Кэмп из компании ESET, занимающейся вопросами безопасности, еще весной писал, что не стоит надеяться распознать фишинговое письмо по языковым ошибкам. Эксперт. ИИ, вероятно, знает родной язык лучше, чем пользователи.
Джейлбрейки - большая проблема
Различные фильтры призваны предотвратить ответы ChatGPT на вредные, незаконные или неуместные вопросы, которые, конечно же, особенно интересуют преступников. Это может касаться и планирования преступлений в реальном мире.
Поэтому на форумах даркнета часто обсуждается вопрос о том, как преодолеть эти барьеры. Особым спросом пользуются так называемые джейлбрейки, которые предоставляют практически бесплатный доступ. DAN, что расшифровывается как "Do Anything Now", пользуется дурной славой с первых дней существования ChatGPT. Код постоянно адаптируется, это своего рода игра в кошки-мышки между разработчиками ChatGPT и джейлбрейкерами.
Еще чаще взломанные аккаунты ChatGPT выставляются на продажу на форумах в даркнете, пишет Sophos. В этом нет ничего удивительного. Однако неясно, на какую целевую группу нацелены эти аккаунты и что покупатели могут с ними делать. Эксперты предполагают, что они могут получить доступ к предыдущим запросам с целью получения конфиденциальной информации. Покупатели также могут использовать доступ для выполнения собственных запросов или проверки повторного использования паролей.
Криминальные магистры пока что в основном "горячий воздух
Эксперты по безопасности считают особенно интересным тот факт, что на форумах предлагались и продолжают предлагаться и криминальные модели. Наиболее известные из них - WormGPT и FraudGPT.
WormGPT был опубликован в июне этого года и, как утверждается, был основан на модели GPTJ. Чатбот стоил 100 евро в месяц или 550 евро в год. Однако в августе разработчик прекратил его работу - якобы из-за огромного внимания прессы.
Однако он также написал: "В конечном итоге WormGPT - это не что иное, как неограниченный ChatGPT. Любой человек в Интернете может использовать известную технику джейлбрейка и добиться таких же, если не лучших, результатов". Несколько участников форума заподозрили мошенничество, пишет Sophos.
Аналогичная ситуация сложилась и с FraudGPT. Есть сомнения и в возможностях модели. Один из пользователей спросил в чате, действительно ли она может генерировать вредоносное ПО, которое не может обнаружить антивирусная программа. Он получил четкий ответ.
Все вредоносные программы распознаются единожды.
Нет, это невозможно, - ответили ему. LLM просто не в состоянии сделать это. Они не могут ни перевести код, ни "понять" его за пределами языка, на котором он был написан. Точно так же, по мнению автора, не существует такого вредоносного ПО, которое нельзя обнаружить. Рано или поздно любой вредоносный код обнаруживается.
Также есть сомнения в подлинности и/или работоспособности всех других криминальных чат-ботов, о которых стало известно на сегодняшний день. Trend Micro пишет, что, несмотря на все споры, она считает, что WormGPT, скорее всего, был единственным примером настоящего кастомизированного LLM.
Опытные преступники ждут и наблюдают, скриптовые детишки празднуют.
Для опытных злоумышленников "нет необходимости разрабатывать отдельный LLM, подобный ChatGPT, поскольку ChatGPT уже достаточно хорошо работает для их нужд", - заключает Trend Micro. Они использовали ИИ так же, как и легальные программисты". Компания Sophos также не нашла практически никаких свидетельств использования ИИ для создания вредоносного ПО. Он используется только для отдельных инструментов атаки. Однако в будущем ситуация может измениться.
Бонус для опытных киберпреступников заключается в том, что теперь они могут без особых усилий совершенствовать свой код, а также писать вредоносные программы на тех компьютерных языках, которыми они не владеют в совершенстве. В Sophos также отметили, что с помощью ИИ они могут выполнять повседневные задачи по программированию или улучшать свои форумы.
Обе охранные компании видят проблему в том, что использование ИИ снизило входной барьер для того, чтобы стать преступным хакером. По мнению Trend Micro, теперь любой человек с нарушенными моральными принципами может приступить к разработке вредоносного ПО без каких-либо знаний в области программирования.
Источник: www.ntv.de