Лишенные любых этических ограничений, вредоносные чат-боты, такие как WormGPT и FraudGPT, наделяют злоумышленников, даже тех, кто еще только вступает на путь киберпреступлений, дополнительными возможностями для совершения атак на IT-инфраструктуру компаний. ИИ-агенты помогают им легко генерировать вредоносное ПО и фишинговые скрипты с высокой степенью защиты от обнаружения.
Как развивается рынок «умных» атак и почему компаниям нужно переходить на проактивную защиту, рассказываем в этом материале.
LLM для обхода защиты
Эксперты по кибербезопасности бьют тревогу: злоумышленники активно интегрируют вредоносные программы с большими языковыми моделями. Такой симбиоз позволяет скриптам адаптироваться к любым изменениям в режиме реального времени, обучаться и менять свое поведение в процессе, чтобы избегать обнаружения.
Тенденцию на усиление атак с использованием инструментов на базе искусственного интеллекта заметили не только зарубежные специалисты по кибербезопасности, но и их российские коллеги. Так, представители АО «Цикада» и BI.Zone считают, что с появлением и развитием ИИ-инструментов у киберпреступников снизился порог для входа в киберпреступность. Это увеличило количество киберинцидентов, упростило атаки и снизило их себестоимость.
Подобная демократизация киберпреступности требует от компаний передовых и проактивных мер противодействия. В них также должны быть включены инструменты искусственного интеллекта и машинного обучения для смягчения растущей угрозы, считают эксперты.
Злые двойники?
В отличие от ChatGPT, у WormGPT и FraudGPT отсутствует фильтрация контента, которая ограничивает выполнение неэтичных задач моделями. Например, они могут создавать вирусы, фишинговые скрипты и другое вредоносное ПО в ответ на промт пользователя, позволяя новичкам-мошенникам за одну ночь превращаться в матерых киберпреступников.
И это не просто теория, заявляют эксперты, а самый настоящий инструмент для создания кастомных вредоносов, которые легко обходят традиционные методы обнаружения. Последствия этого несут серьезную угрозу как для крупных и малых компаний, так и для рядовых пользователей.
Эксперты по кибербезопасности предупреждают, что такая доступность может привести к резкому увеличению числа атак. Это, в свою очередь, приведет к подавлению защиты, которая была разработана для более предсказуемых угроз.
Искусственный интеллект без цензуры
Один из ярких примеров подобных инструментов — WormGPT, который приобрел известность благодаря своей способности без колебаний генерировать вредоносный код. В отчете TechRadar сообщается о двух чат-ботах, предназначенных исключительно для киберпреступников, причем доступ к одному из них предоставляется абсолютно бесплатно.
Эксперты BleepingComputer также провели исследование и протестировали возможности WormGPT 4 и KawaiiGPT для создания скриптов с вредоносным ПО. Они выяснили, что подобные инструменты не просто создают готовый код под запрос — агенты совершенствуют его на основе вводимых пользователем запросов, или промтов, в режиме реального времени, что ускоряет выполнение итераций по сравнению с ручным кодированием.
Подобная эволюция вредоносных моделей связана с широкой тенденцией киберпреступников использовать ИИ-платформы с открытым исходным кодом. Путем тонкой настройки базовых моделей без учета требований безопасности разработчики создают версии, в которых приоритет отдается полезности, а не этике.
По словам экспертов, это и привело к появлению рынка незаконных услуг в области искусственного интеллекта, которые часто рекламируются на форумах Даркнета.
Интеграция ИИ с вредоносной программой
Злоумышленники не только используют большие языковые модели (LLM) для генерации кода, но и встраивают их прямо во вредоносное ПО. Это позволяет программам динамически менять свое поведение и затрудняет работу систем безопасности.
Специалисты подразделения Google Threat Intelligence Group (GTIG), которые занимаются анализом и отслеживанием киберугроз, первые заметили подобные сдвиги в области киберинцидентов. В опубликованной заметке-предупреждении они указали на новые семейства вредоносных программ, которые используют ИИ во время исполнения атаки.
К примеру, были обнаружены такие варианты вредоносов, как Promptflux и Promptsteal. Они подключаются к сервисам искусственного интеллекта для совершенствования атак, изменения кода и снижения риска обнаружения.
Подобная интеграция ИИ во вредоносное ПО — это самый настоящий скачок в усовершенствовании атак. Классические вредоносы следуют заданным паттернам поведения, но их ИИ-варианты могут отвечать на встроенную защиту IT-инфраструктуры в режиме реального времени и скрытно её обходить.
К примеру, если в системе кибербезопасности срабатывает алгоритм защиты, вредонос делает запрос к ИИ, который генерирует обфусцированную версию с изменением поведения для продолжения атаки и прохождения дальше вглубь системы.
Основные техники ИИ в кибератаках 2025
Российские эксперты по кибербезопасности, в частности Positive Technologies, прогнозируют рост использования ИИ в атаках: для сканирования уязвимостей, анализа данных, распознавания текста. Компания отмечает, что ИИ усиливает тактики хакеров, делая атаки более автоматизированными и масштабными.
Эксперты выделяют следующие ключевые применения ИИ в этом направлении:
- Фишинг. ИИ генерирует убедительные письма без ошибок, имитирует стиль конкретных лиц и создает поддельные страницы входа.
- Сканирование уязвимостей. Нейросети анализируют системы для поиска слабых мест, ускоряя эксплуатацию.
- Дипфейки и социальная инженерия. Голосовые и видеофейки усиливают манипуляции в социнженерии.
- Обход защиты. ИИ взламывает CAPTCHA, антиботы и адаптирует вредоносное ПО в реальном времени.
- Анализ данных. Большие языковые модели обрабатывают логи для кражи информации и симуляции атак.
Кроме того, специалисты Positive Technologies прогнозируют рост мультифакторных атак, где ИИ координирует фишинг, уязвимости и социальную инженерию одновременно. По словам специалистов, к концу года до 75% атак могут задействовать ИИ.
Напряжение растет
В социальных сетях обсуждения отражают растущую обеспокоенность. Пользователи отмечают, что вредоносные программы не просто пишутся с использованием ИИ, но и начинают его выполнять, что подчеркивает автономный характер угроз.
Рынок ИИ-инструментов для кибератак процветает. Ресурсы по этичному хакингу перечисляют лучшие инструменты на базе искусственного интеллекта, используемые как белым хакерами, так и киберпреступниками. В эти списки входят как инструменты для тестирования на проникновение, так и для создания вредоносного ПО.
Что делать и как защитить бизнес
Перед специалистами по киберзащите стоит непростая задача. Традиционные меры кибербезопасности, основанные на обнаружении по сигнатурам, плохо приспособлены к новым мутациям вредоносов, созданных при помощи искусственного интеллекта.
Как считают специалисты, количество атак будет только увеличиваться, а сложность — расти. Главную роль во всем это будет играть ИИ, которым активно пользуются злоумышленники. Эксперты советуют компаниям переходить на проактивную защиту, или упреждающую кибербезопасность, которая входит в число главных российских ИТ-трендов в 2026 году.
По мнению специалистов информационной безопасности, стратегии, основанные на принципе обнаружения и реагирования, теряют эффективность. Поскольку злоумышленники перешли на усовершенствованные атаки с использованием искусственного интеллекта, для защиты IT-инфраструктуры компании должны использовать аналогичные инструменты, включая центры мониторинга с ИИ-аналитикой, инструменты для предотвращения утечек данных, платформы для разведки угроз.
Сотрудничество крупных технологических гигантов и правительств также могло бы остановить процесс усиления ИИ-атак. Регулируя появление моделей без цензуры и укрепляя международные кибернормы, они могли бы ограничить распространение этих инструментов. Однако игра в кошки-мышки продолжается, и новаторы с обеих сторон расширяют границы дозволенного.
Еще одна тенденция защиты — переход от точечных средств защиты к непрерывному мониторингу. К примеру, сервис кибербезопасности Botfaqtor уже использует систему, которая анализирует поведение пользователей и их устройств в режиме реального времени. В этом не последнюю роль играет машинное обучение и искусственный интеллект, используемые алгоритмом платформы для блокировки ботов на сайтах.
В конечном счете, появление вредоносных программ на базе ИИ сигнализирует о смене парадигмы. Киберугрозы больше не ограничиваются опытными хакерами, они становятся повсеместными, движимые демократизирующей силой искусственного интеллекта. Чтобы оставаться впереди, нужны не только технологии, но и согласованные усилия между всеми участниками рынка.

Подписывайтесь на наш ТГ-канал: рассказываем о реальных кейсах, тактиках и технологиях мошенников, факты о кликфроде и не только. Без спама и с пятничными мемами.


