80% ботов в интернете

Исследование: боты генерируют 80% всего трафика в интернете

Согласно исследованию, отчет о котором в феврале опубликовали специалисты компании DesignRush, боты теперь генерируют 80% от всего веб-трафика в интернете. Это означает, что только 1 из 5 пользователей — реальный человек.

Это не просто проблема — это настоящий сдвиг в работе всего Интернета. Бизнес вкладывается в разработку контента, в то время как BigTech-компании собирают его бесплатно.

Роботы — это уже не только краулеры поисковых систем, которые сканируют сайты для индексации. Теперь это модели искусственного интеллекта, маркетинговые инструменты и скрейперы, которые автоматически собирают контент для обучения, анализа и получения информации о конкурентах.

На ИИ-агентов OpenAI сейчас приходится 13 % от общего веб-трафика, по сравнению с 0 % в 2023 году. Тем временем поисковый трафик робота-обходчика Googlebot снизился всего до 8%, что свидетельствует о переходе от традиционной поисковой индексации к сбору данных на основе искусственного интеллекта.

Вредоносные боты в 2025 году составляют около 15 % от общего веб-трафика. Согласно другому исследованию, проведенному компанией StormWall, Россия заняла третье место в мире по объёму вредоносного бот-трафика, который составил 3,8 %. В лидерах — США (36,2 %).

Как боты незаметно захватывают Интернет

Если сравнить веб-трафик за последние несколько лет, то можно заметить существенный сдвиг в соотношении присутствия различных типов роботов. С 2023 по 2025 год существенно выросло число ИИ-роботов и маркетинговых ботов.

*Статистика собрана на основе анализа данных компании DesignRush

BigTech извлекает бизнес-данные бесплатно

Twitter/X, Google, Apple и OpenAI сканируют сайты и собирают с них контент совершенно бесплатно. Чем больше компаний инвестируют в высококачественный контент, тем больше ИИ-моделей кормятся бесплатно за счет него. Это может привести к появлению инструментов, которые позволят блокировать таких ботов.

Как, например, это сделали специалисты компании Cloudflare. Они разработали “лабиринт”, который вводит в заблуждение неавторизованных ИИ-ботов и веб-скрейперов. Ботам скармливается тщательно проработанный контент из области биологии, физики или математики, который не имеет отношения к защищенному сайту.

Последствия для бизнеса

Бизнес платит за хостинг, домен, протоколы и безопасность. Каждое посещение обходится в копейку. Учитывая соотношение количества ботов к реальным пользователям (4:1), владельцам сайтов приходится оплачивать трафик, мотивированный искусственным интеллектом.

К чему это приводит:

  • Увеличение затрат на рекламу. Поскольку 80% веб-трафика генерируют боты, нетрудно представить, что и за недействительные переходы по рекламе бизнесу приходится платить. Как в таком потоке роботов искать целевую аудиторию? Без надлежащего таргетинга, фильтрации и верификации трафика компании могут терять миллионы на рекламе, которая никогда не окупится.
  • Увеличение затрат на IT-инфраструктуру. Компании неосознанно платят за поддержку роботного трафика, увеличивая расходы на обслуживание сайтов, серверов и систему безопасности. Без внедрения инструментов, которые помогут блокировать проходной трафик, бизнес продолжит «сливать» бюджет.
  • ИИ-модели обучаются на готовых данных бизнеса. GPT-ботам и другим ИИ-агентам требуется обучение. Для этого BigTech-компании используют данные и опыт из различных сфер бизнеса. О чем это может говорить? О том, что они могут использовать уже готовые наработки и в один прекрасный момент заменить услуги определенных компаний, вытесняя их с рынка. Контент, стратегии, кейсы и инсайты — всё это поглощается ИИ-моделями и, самое главное, совершенно бесплатно.
  • Изменяются паттерны поискового поведения. Поскольку присутствие ИИ-ботов в трафике набирает обороты, то меняется и опыт поиска в интернете. Появляются инструменты, вроде SearchGPT, которые переворачивают классические представления о поисковой выдаче.

Чем больше компании инвестируют в высококачественный контент, тем больше моделей искусственного интеллекта кормятся за счет него бесплатно. Потенциально это может стать толчком к развитию новых инструментов фильтрации трафика.

Что делать бизнесу

Поскольку боты доминируют в веб-трафике, бизнесу стоит обратить внимание на следующие стратегии защиты:

Регулярно проводить аудит трафика

Это поможет определить соотношение присутствия реальных пользователей и ботов, а также понять, как это влияет на затраты, вовлеченность и конверсии.

Переосмыслить настройки рекламных кампаний

Роботы окружают нас в цифровом пространстве. Их используют владельцы площадок, монетизируемых через рекламные платформы, чтобы завышать вознаграждения. Боты «нагуливают» профили, переходя по рекламе из поисковой выдачи.

Именно поэтому бизнесу стоит регулярно корректировать рекламные кампании и подключить к ним системы антифрода, которые будут блокировать ботам доступ к рекламе. Это поможет защитить бюджет и увеличить рентабельность инвестиций.

Изменить SEO-стратегию

Поскольку Big Tech компании и поисковые системы вводят новые форматы поиска, как, например, Нейропоиск от Яндекса или SearchGPT от OpenAI, компаниям может потребоваться внедрение новых стратегий в продвижение.

Вкладываться в инструменты блокировки ботов

Бизнесу стоит бороться с нецелевым бот-трафиком. Для этого можно использовать инструменты фильтрации, анализа и блокировки визитов, созданных автоматизированными агентами и вредоносными скриптами.

Вывод

Исследователи делают вывод, что боты вытесняют реальных пользователей из трафика, поскольку на них приходится подавляющий объем визитов. Поэтому компаниям стоит сосредоточиться на повышении своей видимости в поисках целевой аудитории и использовать для этого дополнительные инструменты.


Подписывайтесь на наш ТГ-канал: рассказываем о реальных кейсах, тактиках и технологиях мошенников, факты о кликфроде и не только. Без спама и с пятничными мемами.


Об авторе

Алёна

Пишу о ботах и кибербезопасности

Просмотреть все сообщения

Добавить комментарий