Обновление основных алгоритмов Google, лимиты сканирования и данные о трафике Gemini – SEO Pulse

Вот ваше еженедельное обновление важных изменений Google: мы расскажем о том, как ранжируется контент, как Googlebot обрабатывает размер веб-сайта и о последних тенденциях трафика, поступающего от AI. Эта информация поможет вам понять, что происходит и как это влияет на вашу работу.

Купил акции на все деньги, а они упали? А Илон Маск снова написал твит? Знакомо. У нас тут клуб тех, кто пытается понять этот цирк и не сойти с ума.

Купить на падении (нет)

Google выпускает основное обновление за март 2026 года.

Как SEO-эксперт, я внимательно слежу за происходящим – Google на этой неделе запустил первое крупное обновление основного алгоритма за 2024 год. Эти обновления могут значительно повлиять на позиции сайтов в поисковой выдаче, поэтому крайне важно отслеживать производительность и понимать любые изменения, которые вы видите.

Вот что вам нужно знать: обновление будет выпущено в течение следующих двух недель. Google заявляет, что это стандартное улучшение, направленное на показ пользователям более качественного и полезного контента с веб-сайтов всех видов. Это обновление последовало сразу за недавним обновлением против спама, которое завершилось менее чем за 20 часов.

Почему это важно

Последнее крупное обновление основной системы ранжирования Google завершилось 29 декабря, что означает, что прошло почти три месяца с момента внесения масштабных изменений. Обновление в феврале затронуло только Discover, поэтому результаты поиска существенно не менялись с конца декабря.

Вы можете заметить изменения в поисковых позициях, начиная с начала апреля. Google рекомендует подождать неделю после завершения обновления, чтобы проверить данные в Search Console. Когда вы это сделаете, сравните их с тем, как всё работало до 27 марта.

Что говорят специалисты по SEO

Джон Мюллер, работающий в команде по связям с поисковыми системами Google, ответил на Bluesky на вопрос о том, произошли ли два недавних обновления одновременно.

Всё просто: ваш веб-сайт либо считается спамом, либо нет. Если вы не уверены после оценки его контента и практик, скорее всего, он попадает в категорию спама.

Мюллер уточнил, что крупные обновления Google не запускаются сразу. Различные команды и системы вносят вклад в эти обновления, и их изменения необходимо внедрять постепенно. Этот поэтапный подход объясняет, почему обновления могут занимать недели для полного внедрения и почему вы часто видите колебания в рейтингах, происходящие поэтапно, а не как одно большое изменение.

По словам Роджера Монти из Search Engine Journal, время проведения обновления по борьбе со спамом, вероятно, было не случайным. Борьба со спамом естественным образом вписывается в более широкие усилия по улучшению общего качества веб-сайтов во время основного обновления.

Прочитайте наш полный обзор: Google начинает развертывание основного обновления марта 2026 года.

Прочитайте материалы Роджера Монтти: Google объясняет, почему основные обновления могут разворачиваться поэтапно.

Ильес объясняет архитектуру обхода Googlebot и лимиты байтов.

Гэри Ильес, аналитик Google Search, недавно написал сообщение в блоге, в котором подробно описано, как Googlebot работает в рамках общего процесса обхода веб-страниц Google. В публикации представлена дополнительная техническая информация об ограничении в 2 МБ на обход, о котором Google объявил ранее в этом году.

Почему это важно

Googlebot не отклоняет автоматически страницы, превышающие размер в 2 МБ. Вместо этого он прекращает загрузку контента на отметке в 2 МБ и отправляет неполную страницу для индексации, рассматривая её как завершенную. Это означает, что любой контент, превышающий 2 МБ, не будет проиндексирован вообще. Это особенно важно для страниц, которые включают большие изображения непосредственно в коде (base64), обширный CSS или JavaScript, или чрезмерно большие навигационные меню.

То, как Google обрабатывает запросы от своих различных веб-сканеров, также объясняет, почему вы видите разные записи в журналах своего сервера. Каждый сканер настраивается индивидуально, со своими собственными ограничениями на объем запрашиваемых данных. Googlebot, сканер, используемый для обычных веб-поисков, имеет ограничение в 2 MB, что является конкретной настройкой стандартного лимита платформы в 15 MB.

Google недавно объяснил эти ограничения в своей официальной документации, подкасте и этой публикации в блоге – всё в течение последних двух месяцев. По словам Ильиса, лимит в 2 МБ не является жёстким и может быть скорректирован по мере изменения интернета.

Что говорят SEO-специалисты

Cyrus Shepard, основатель Zyppy SEO, написал в LinkedIn:

Как цифровой маркетолог, я часто сталкиваюсь со сложными ситуациями. Если вы обнаруживаете, что часть вашего контента не отображается в результатах поиска на больших веб-страницах, первое, что я бы проверил, — это размер страницы. Это распространенная проблема!

Прочитайте наш полный обзор: Google объясняет ограничения байтов Googlebot и архитектуру сканирования.

Ильес и Сплитт из Google: Страницы становятся больше, и это все еще имеет значение.

В недавнем эпизоде подкаста Search Off the Record, разработчики Google Gary Illyes и Martin Splitt обсудили, как размер страницы влияет на сканирование и производительность веб-сайта.

Веб-страницы стали почти в три раза больше за последние десять лет. В то время как Google обычно разрешает страницы размером до 15 МБ, его веб-сканеры, такие как Googlebot, часто ограничивают этот размер до 2 МБ. Джон Мюллер из Google задался вопросом, не способствует ли использование структурированных данных, внедрение которых Google поощряет на веб-сайтах, увеличению размера страниц.

Почему это важно

Web Almanac за 2025 год обнаружил, что средний вес главной страницы мобильной версии составляет 2,362 КБ. Хотя размеры страниц увеличиваются, важно помнить, что соблюдение лимита в 2 МБ для сканирования от Google не гарантировано. Джон Ильес из Google недавно задался вопросом, увеличивает ли структурированные данные этот рост, на что стоит обратить внимание. Google рекомендует использовать схему разметки для улучшения результатов поиска, но эта разметка утяжеляет страницы.

Сплитт упомянул, что в будущем видео он расскажет о способах уменьшения размера веб-страниц. Он рекомендует, чтобы страницы с большим количеством контента, непосредственно встроенного в них, обеспечивали загрузку наиболее важных частей в пределах первых 2 мегабайт данных, отправляемых пользователю.

Прочитайте наш полный обзор: Google: Страницы становятся больше, и это все еще имеет значение

Трафик Gemini, полученный по реферальным ссылкам, более чем удвоился и обогнал Perplexity.

В период с ноября 2025 года по январь 2026 года Google Gemini значительно увеличил количество посетителей, которых он направлял на веб-сайты – более чем удвоив трафик. Этот вывод основан на анализе, проведенном SE Ranking, который исследовал данные с более чем 101 000 веб-сайтов, использующих Google Analytics.

SE Ranking недавно обнаружила, что реферальный трафик из Google’s Gemini 3 значительно увеличился – в общей сложности на 115% за два месяца, начиная примерно с момента запуска Gemini 3. Gemini отправила на 29% больше реферального трафика по всему миру и на 41% больше в США по сравнению с Perplexity в январе. Хотя Gemini быстро растет, ChatGPT по-прежнему обеспечивает около 80% всего реферального трафика из AI инструментов. Стоит отметить, что SE Ranking также продает инструменты, которые отслеживают AI видимость.

Почему это важно

В августе 2025 года Perplexity отправлял почти в три раза больше реферального трафика, чем Gemini. Однако к январю 2026 года Gemini догнал Perplexity, фактически превзойдя его в этой области. Примерно в то же время значительно уменьшилось и преимущество ChatGPT над Gemini, снизившись с примерно 22-кратного в октябре до примерно 8-кратного к январю.

Платформы искусственного интеллекта в совокупности сейчас составляют около 0.24% всего интернет-трафика во всем мире, что является увеличением по сравнению с 0.15% в 2025 году. Хотя это демонстрирует рост, это все еще относительно небольшая часть общего трафика по сравнению с традиционным поиском. Недавнее увеличение использования Gemini, по-видимому, связано с выпуском нового продукта, но пока рано говорить о том, сохранится ли этот рост в долгосрочной перспективе.

Gemini теперь стоит смотреть наряду с ChatGPT и Perplexity в ваших отчётах о привлечении рефералов.

Прочитайте наш полный обзор: Google Gemini направляет больше трафика на сайты, чем Perplexity: Отчет.

Тема Недели: Google объясняет собственные системы

На этой неделе Google поделился информацией о том, как работают его поисковые системы, в трёх отдельных обновлениях. Illyes написал статью в блоге, объясняющую внутреннюю работу Googlebot, в то время как подкаст Search Off the Record обсуждал скорость загрузки страниц и то, как Google сканирует веб-сайты. Mueller прояснил, почему крупные обновления Google выпускаются постепенно, а не все сразу. Эти обновления предоставляют полезные детали, которые ранее не были доступны в официальной документации.

Данные Gemini предлагают новые сведения о том, как работает Google. В то время как Google делится подробностями о своих веб-краулерах и процессах ранжирования, он не объясняет всплеск трафика, проходящего через его AI-сервисы – всплеск, который теперь заметен в данных из других источников.

Смотрите также

2026-04-03 15:41