Согласно исследованию, отчет о котором в феврале опубликовали специалисты компании DesignRush, боты теперь генерируют 80% от всего веб-трафика в интернете. Это означает, что только 1 из 5 пользователей — реальный человек.
Это не просто проблема — это настоящий сдвиг в работе всего Интернета. Бизнес вкладывается в разработку контента, в то время как BigTech-компании собирают его бесплатно.
Роботы — это уже не только краулеры поисковых систем, которые сканируют сайты для индексации. Теперь это модели искусственного интеллекта, маркетинговые инструменты и скрейперы, которые автоматически собирают контент для обучения, анализа и получения информации о конкурентах.
На ИИ-агентов OpenAI сейчас приходится 13 % от общего веб-трафика, по сравнению с 0 % в 2023 году. Тем временем поисковый трафик робота-обходчика Googlebot снизился всего до 8%, что свидетельствует о переходе от традиционной поисковой индексации к сбору данных на основе искусственного интеллекта.
Вредоносные боты в 2025 году составляют около 15 % от общего веб-трафика. Согласно другому исследованию, проведенному компанией StormWall, Россия заняла третье место в мире по объёму вредоносного бот-трафика, который составил 3,8 %. В лидерах — США (36,2 %).
Как боты незаметно захватывают Интернет
Если сравнить веб-трафик за последние несколько лет, то можно заметить существенный сдвиг в соотношении присутствия различных типов роботов. С 2023 по 2025 год существенно выросло число ИИ-роботов и маркетинговых ботов.

*Статистика собрана на основе анализа данных компании DesignRush
BigTech извлекает бизнес-данные бесплатно
Twitter/X, Google, Apple и OpenAI сканируют сайты и собирают с них контент совершенно бесплатно. Чем больше компаний инвестируют в высококачественный контент, тем больше ИИ-моделей кормятся бесплатно за счет него. Это может привести к появлению инструментов, которые позволят блокировать таких ботов.
Как, например, это сделали специалисты компании Cloudflare. Они разработали “лабиринт”, который вводит в заблуждение неавторизованных ИИ-ботов и веб-скрейперов. Ботам скармливается тщательно проработанный контент из области биологии, физики или математики, который не имеет отношения к защищенному сайту.
Последствия для бизнеса
Бизнес платит за хостинг, домен, протоколы и безопасность. Каждое посещение обходится в копейку. Учитывая соотношение количества ботов к реальным пользователям (4:1), владельцам сайтов приходится оплачивать трафик, мотивированный искусственным интеллектом.
К чему это приводит:
- Увеличение затрат на рекламу. Поскольку 80% веб-трафика генерируют боты, нетрудно представить, что и за недействительные переходы по рекламе бизнесу приходится платить. Как в таком потоке роботов искать целевую аудиторию? Без надлежащего таргетинга, фильтрации и верификации трафика компании могут терять миллионы на рекламе, которая никогда не окупится.
- Увеличение затрат на IT-инфраструктуру. Компании неосознанно платят за поддержку роботного трафика, увеличивая расходы на обслуживание сайтов, серверов и систему безопасности. Без внедрения инструментов, которые помогут блокировать проходной трафик, бизнес продолжит «сливать» бюджет.
- ИИ-модели обучаются на готовых данных бизнеса. GPT-ботам и другим ИИ-агентам требуется обучение. Для этого BigTech-компании используют данные и опыт из различных сфер бизнеса. О чем это может говорить? О том, что они могут использовать уже готовые наработки и в один прекрасный момент заменить услуги определенных компаний, вытесняя их с рынка. Контент, стратегии, кейсы и инсайты — всё это поглощается ИИ-моделями и, самое главное, совершенно бесплатно.
- Изменяются паттерны поискового поведения. Поскольку присутствие ИИ-ботов в трафике набирает обороты, то меняется и опыт поиска в интернете. Появляются инструменты, вроде SearchGPT, которые переворачивают классические представления о поисковой выдаче.
Чем больше компании инвестируют в высококачественный контент, тем больше моделей искусственного интеллекта кормятся за счет него бесплатно. Потенциально это может стать толчком к развитию новых инструментов фильтрации трафика.
Что делать бизнесу
Поскольку боты доминируют в веб-трафике, бизнесу стоит обратить внимание на следующие стратегии защиты:
Регулярно проводить аудит трафика
Это поможет определить соотношение присутствия реальных пользователей и ботов, а также понять, как это влияет на затраты, вовлеченность и конверсии.
Переосмыслить настройки рекламных кампаний
Роботы окружают нас в цифровом пространстве. Их используют владельцы площадок, монетизируемых через рекламные платформы, чтобы завышать вознаграждения. Боты «нагуливают» профили, переходя по рекламе из поисковой выдачи.
Именно поэтому бизнесу стоит регулярно корректировать рекламные кампании и подключить к ним системы антифрода, которые будут блокировать ботам доступ к рекламе. Это поможет защитить бюджет и увеличить рентабельность инвестиций.
Изменить SEO-стратегию
Поскольку Big Tech компании и поисковые системы вводят новые форматы поиска, как, например, Нейропоиск от Яндекса или SearchGPT от OpenAI, компаниям может потребоваться внедрение новых стратегий в продвижение.
Вкладываться в инструменты блокировки ботов
Бизнесу стоит бороться с нецелевым бот-трафиком. Для этого можно использовать инструменты фильтрации, анализа и блокировки визитов, созданных автоматизированными агентами и вредоносными скриптами.
Вывод
Исследователи делают вывод, что боты вытесняют реальных пользователей из трафика, поскольку на них приходится подавляющий объем визитов. Поэтому компаниям стоит сосредоточиться на повышении своей видимости в поисках целевой аудитории и использовать для этого дополнительные инструменты.

Подписывайтесь на наш ТГ-канал: рассказываем о реальных кейсах, тактиках и технологиях мошенников, факты о кликфроде и не только. Без спама и с пятничными мемами.