Данные GSC на 75% неполные.


1. GSC Раньше Считался Истиной в Последней Инстанции

Search Console раньше давала очень чёткую картину того, как веб-сайты работают в результатах поиска Google. Однако такие изменения, как конфиденциальная выборка, искусственно завышенные цифры показов от ботов и новая функция AI Overviews, теперь делают эти данные менее надёжными.

Купил акции на все деньги, а они упали? А Илон Маск снова написал твит? Знакомо. У нас тут клуб тех, кто пытается понять этот цирк и не сойти с ума.

Купить на падении (нет)

Если вы не знаете, как фильтруются ваши данные и какой предвзятостью они могут быть подвержены, вы можете неверно интерпретировать информацию из Google Search Console.

Google работала над улучшением данных в Google Search Console, но это всё ещё вызывает больше вопросов, чем даёт ответов.

2. Выборка конфиденциальности скрывает 75% запросов

Google автоматически скрывает большое количество показов рекламы (и кликов, которые могли бы с ними прийти), ссылаясь на соображения конфиденциальности. Недавний анализ Патрика Стокса большой выборки данных показал, что почти половина всех потенциальных показов фильтруется.

Я провёл тот же анализ данных с десяти B2B веб-сайтов за пределами США, изучив приблизительно 4 миллиона кликов и 450 миллионов показов.

Методология:

  • Google Search Console (GSC) предоставляет данные через два API-endpoint, которые раскрывают его поведение фильтрации. Агрегированный запрос (без измерений) возвращает общее количество кликов и показов, включая все данные. Запрос на уровне запроса (с измерением «query») возвращает только запросы, соответствующие порогу конфиденциальности Google.
  • Сравнивая эти два числа, вы можете рассчитать скорость фильтрации.
  • Например, если сводные данные показывают 4 205 кликов, а данные на уровне запросов — только 1 937 видимых кликов, Google отфильтровал 2 268 кликов (53,94%).
  • Я проанализировал 10 B2B SaaS сайтов (~4 миллиона кликов, ~450 миллионов показов), сравнивая периоды в 30, 90 дней и 12 месяцев с тем же анализом, проведённым 12 месяцев назад.

Мой вывод:

1. Google отфильтровывает около 75% показов.

  • Частота фильтрации показов чрезвычайно высока, три четверти отфильтровываются ради конфиденциальности.
  • 12 месяцев назад показатель был всего на 2 процентных пункта выше.
  • Диапазон, который я наблюдал, варьировался от 59,3% до 93,6%.

2. Google фильтрует около 38% кликов, но на ~5% меньше, чем 12 месяцев назад.

  • Фильтрация кликов – это не то, о чём мы часто говорим, но, похоже, Google не сообщает до трети всех произошедших кликов.
  • 12 месяцев назад Google отфильтровал более 40% кликов.
  • Диапазон фильтрации составляет от 6,7% до 88,5%!

Мы зафиксировали небольшое улучшение скорости фильтрации за последний год, вероятно, из-за того, что мы видим меньше показов от ботов.

3. Оценки на 2025 год сильно завышены.

Последние 12 месяцев показывают американские горки данных GSC:

  • В марте 2025 года Google усилил развертывание AIOs и показал на 58% больше для проанализированных мной сайтов.
  • В июле количество показов выросло на 25,3%, а в августе – еще на 54,6%. SERP scrapers каким-то образом обошли SearchGuard (защитный «бот», который Google использует для предотвращения работы SERP scrapers) и привели к тому, что «показы ботов» захватили AIOs.
  • В сентябре Google удалил параметр num=100, что привело к снижению показов на 30.6%.

Перенесемся в настоящее время:

  • Клики уменьшились на 56.6% с марта 2025 года.
  • Показы нормализованы (снижение на -9.2%).
  • AIOs снизились на 31.3%.

Я не могу точно определить уменьшение количества кликов, вызванное AIO, но существует сильная связь – корреляция 0.608. Мы знаем, что AIO обычно приводят к меньшему количеству кликов, что логично, но мы не знаем точное влияние. Чтобы определить это, мне нужно было бы сравнить коэффициенты кликабельности для поисковых запросов до и после появления AIO.

Как digital-маркетологу, одна из самых сложных задач – понять, *почему* снижается количество кликов. Легко прийти к выводу о влиянии алгоритма (AIO), но как мне действительно узнать, является ли это проблемой, или просто мой контент больше не находит отклика у аудитории, или просто не такой свежий, как раньше?

Ищите временную корреляцию:

  • Отслеживайте, когда ваши клики снизились по отношению к графику развертывания AIO от Google (пик в марте 2025 года). Низкое качество контента демонстрирует постепенный спад; влияние AIO является резким и специфичным для запросов.
  • Сопоставьте с данными о позициях. Если рейтинги остаются стабильными, а количество кликов падает, это сигнализирует о каннибализации AIO. Проверьте, являются ли затронутые запросы информационными (склонными к AIO) или транзакционными (устойчивыми к AIO). Ваш коэффициент корреляции 0.608 между присутствием AIO и снижением количества кликов подтверждает этот диагностический подход.

4. Количество впечатлений от ботов растёт.

Похоже, программы, которые автоматически собирают результаты поиска (SERP scrapers), начинают появляться снова. Мы можем идентифицировать бот-трафик, сосредотачиваясь на поисках с очень длинными запросами – содержащими более десяти слов и появляющимися только дважды. Крайне маловероятно, что реальный человек введёт один и тот же длинный поисковый запрос дважды, поэтому эти повторяющиеся, объёмные поиски, вероятно, исходят от ботов.

Логика накрутки просмотров ботов:

  • Гипотеза: Люди редко ищут одну и ту же фразу из 5+ слов дважды за короткий промежуток времени.
  • Фильтр: Определите запросы, содержащие более 10 слов, у которых >1 показ, но ноль кликов.
  • Оговорка: Этот метод может захватывать некоторые легитимные запросы без кликов, но предоставляет направленную оценку активности ботов.

Я сравнил эти запросы за последние 30, 90 и 180 дней:

  • Запросы с +10 словами и +1 показом выросли на 25% за последние 180 дней.
  • Диапазон показов ботов составляет от 0.2% до 6.5% (за последние 30 дней).

Вот чего можно ожидать как «нормального» процента впечатлений от ботов для типичного SaaS-сайта:

  • Основываясь на B2B-данных с 10 сайтов, количество показов ботов колеблется от 0.2% до 6.5% за 30 дней, при запросах, содержащих 10+ слов и 2+ показа, но 0 кликов.
  • Для SaaS в частности, ожидайте базовый показатель в 1-3% для показов ботов. Сайты с обширной документацией, техническими руководствами или страницами с программным SEO обычно имеют более высокие показатели (4-6%).
  • Рост на 25% за 180 дней говорит о том, что скраперы адаптируются после SearchGuard. Следите за вашей перцентильной позицией в этом диапазоне больше, чем за абсолютным числом.

5. Слой измерений сломан.

  • Три четверти показов отфильтровываются.
  • Впечатления от ботов генерируют до 6.5% данных.
  • AIOs сокращают количество кликов более чем на 50%.
  • Поведение пользователей структурно меняется.

Смотрите также

2026-02-03 18:10