Волатильность рейтингов Google Search резко усилилась, начиная с 2 февраля.

После очень нестабильного января для Google Search, я надеялся, что ситуация стабилизируется, но результаты все еще сильно колеблются и постоянно меняются.

Мы наблюдаем рост нестабильности на рынке, начиная с 2 февраля, и она стала более выраженной в последнее время. Я редко вижу такой уровень колебаний в инструментах отслеживания, если только Google официально не обновил свои основные алгоритмы.

Просто чтобы дать вам краткое обновление, я отслеживал несколько возможных изменений в том, как Google ранжирует результаты поиска. Они начались примерно 6 января и продолжились обновлениями 12, 15, 21, 26/27 и 29 января. До этого Google выпустил крупное обновление 11 декабря 2025 года, которое длилось до 29 декабря 2025 года. Мы наблюдали два значительных периода изменений в рамках этого обновления – примерно 13 и 20 декабря.

Google пока официально не подтвердил эти изменения, но есть некоторые признаки того, что они нацелены на низкокачественные, саморекламные списки статей. Гленн Гейб предполагает, что обновления зашли еще дальше, повлияв на то, как Google обрабатывает обзоры – аналогично их старой системе обзора продуктов.

Теперь мы видим еще больше активности.

SEO-болтовня

В сети было много обсуждений – в разделах комментариев этого сайта, а также на форумах, таких как WebmasterWorld и Black Hat World. Хотя большая часть из них посвящена снижению трафика, некоторые люди также сообщают о положительных результатах.

Резкое падение трафика сегодня, и я действительно не знаю почему. Самый плохой дневной трафик за последние 5 лет, и это даже не связано с основным обновлением.

Я заметил только увеличение продаж за последние два дня. Ничего из этого не поступало из Google, хотя. Все мои продажи поступают из Bing.

Трафик Google плоский и мёртв по всем направлениям.

У меня был огромный рост трафика во время обновления ядра в декабре и огромное падение трафика за последние пару недель. Кажется, он медленно восстанавливается, но мой доход составляет около 50%… Это старый веб-сайт, рынок США, которому более 15 лет. Раньше мы публиковали тонны оригинального контента. Изначально это было печатное издание, но теперь мы полагаемся на AI. Я сам журналист, поэтому я не просто копирую и вставляю, а редактирую и слежу за тем, чтобы добавить человеческий отпечаток… Тем не менее, рост и падение трафика без какой-либо логической закономерности действительно заставляет меня чувствовать, что мне нужно найти новый источник дохода… стрессовые времена. Не знаю, что делать больше 🙁

Похоже, Google наконец-то решил обнулить наш органический трафик.

Наблюдаю значительные изменения в ключевых словах по всем моим сайтам.. некоторые ключевые слова показывают большой рост, но трафик остается прежним.. возможно, это движение перед обновлением? Ощущается, что что-то надвигается.

Уже несколько дней полный беспорядок. Крупные перестановки.

Вижу одно и то же уже последние два года…. устойчивый градиент едва заметного наклона в отрицательном направлении.

Трафик резко упал и удерживается на минимальном уровне, согласно аналитике в режиме реального времени. Google Discover привлекает нецелевых посетителей из стран, где не говорят на моём языке. Они снова что-то делают с результатами поиска и Discover.

Да, на всех моих сайтах наблюдается массовый рост ключевых слов, однако трафик остаётся на прежнем уровне. Необычно, что все мои сайты затронуты одновременно, ещё более необычно, что по всем из них наблюдается положительная динамика. Возможно, они нашли способ устранить мусор?

Да, RPM резко упал на всех сайтах в портфеле моей компании. Трафик остаётся на уровне вчерашнего дня, то есть слабый, но я думаю, что качество трафика находится на самом дне, поэтому RPM на 50-60% ниже уровня вчерашнего дня

Еще один хороший день по трафику на всех сайтах, особенно на моем глобальном сайте, однако заметно, что Запад не так активен, как раньше, Евразия — вот где сейчас все самое интересное. Mr MSFT посетил несколько раз сегодня утром, на самом деле, кроме MSFT, Amazon посетил один сайт с новым диапазоном IP-адресов… Заблокировано

Я тоже это видел. 3 дня очень хорошего трафика. Но вчера вечером: БАМ. Большое падение.

Ранжирование Google в последнее время было довольно нестабильным. Вы заметили аналогичные изменения за последний месяц?

Я вижу схожие колебания, особенно в конкурентных нишах. Позиции, похоже, чаще меняются даже без серьезных изменений в SEO, что больше похоже на перекалибровку Google сигналов качества и намерений, а не на санкции. Сайты с сильным тематическим авторитетом и доверием к бренду, похоже, стабилизируются быстрее.

Я заметил ту же закономерность в нескольких проектах. Рейтинги резко падают, а затем частично восстанавливаются без каких-либо серьезных изменений, что говорит о тестировании алгоритма, а не о чем-то специфичном для сайта.

Да, Google демонстрирует заметные колебания в рейтингах в последнее время, особенно в конкурентных нишах, таких как партнерский маркетинг и высококонкурентные ключевые слова. Необычно, когда позиции меняются день ото дня даже без изменений на странице, и многие SEO-специалисты сообщают о подобной волатильности без какого-либо официального подтверждения обновления.

Да, я тоже огромный провал.

Привет! Это выпуск наших ‘Заметок об обновлениях обзоров’ от 4 февраля. Звучит не так же, как ‘Заметки об основных обновлениях’, но работает! Мы полагаем, что это было обновление обзоров, хотя Google перестала официально их объявлять некоторое время назад, потому что система сейчас…

— Glenn Gabe (@glenngabe) February 4, 2026

Инструменты отслеживания Google

Посмотрите, насколько разогреваются большинство этих отслеживающих инструментов.

Semrush:

Accuranker:

Wincher:

Advanced Web Rankings:

SimilarWeb:

Sistrix:

Mangools:

Агрегатор инструментов Wiredboard объединяет данные из инструментов, перечисленных выше, и отображает их все на одном графике.

Mozcast:

SERPstat:

Данные для SEO:

Algoroo:

Zutrix:

CognitiveSEO:

Смотрите также

2026-02-04 16:46

Microsoft Publisher Content Marketplace — Оплатите ИИ за лицензирование контента

Microsoft расширяет свою Площадку контента для издателей, платформу, которая позволяет издателям зарабатывать деньги, когда их контент используется для обучения и улучшения ИИ Microsoft. Это выгодно как издателям, создавая новый источник дохода, так и потребителям, помогая ИИ предоставлять более точные и полезные ответы.

Если вы хотите узнать больше и, возможно, зарегистрироваться, вы можете заполнить эту форму выражения заинтересованности.

Вот ключевые моменты Marketplace контента Publisher от Microsoft:

  • Маркетплейс контента издателей (PCM) — это инициатива на ранней стадии, создающая прозрачную экономическую структуру для лицензирования премиального контента в продукты искусственного интеллекта. Результатом является прямой обмен ценностями: издатели будут получать оплату за предоставленную ценность, а разработчики ИИ получат масштабируемый доступ к лицензированному премиальному контенту, который улучшает их продукты.
  • Издатели определяют условия лицензирования и использования, а разработчики ИИ обнаруживают и лицензируют контент для конкретных сценариев обоснования. PCM также предоставляет отчетность на основе использования, позволяя издателям понимать, как контент оценивался в прошлом и где он может обеспечить повышенную ценность в будущем, все в рамках обратной связи внутри маркетплейса.
  • За последние несколько месяцев Microsoft совместно разрабатывала PCM с ведущими американскими издателями. Их вклад помог сформировать первоначальные решения в области лицензирования, ценообразования, управления, аналитики и адаптации.
  • Microsoft расширит PCM для тех, кто разделяет принципы, что веб ИИ должен уважать качественный контент за предоставляемую им услугу потребителю, обеспечивая прочную роль работы журналистов, создателей и экспертов в будущем веб ИИ.
  • Участие является добровольным с четкими элементами управления согласием и отказом от участия, прозрачной отчетностью об использовании и условиями лицензирования, определяемыми издателями.

Microsoft сотрудничала с такими крупными издательствами, как Business Insider, Condé Nast, Hearst Magazines, People, The Associated Press, USA TODAY и Vox Media, для совместного проектирования PCM и других.

У меня сейчас нет визуальных материалов, прогнозов доходов или каких-либо дальнейших подробностей, но это идея, достойная рассмотрения.

Кришна Мадхаван, менеджер по продуктам в Microsoft Bing, недавно объявил в LinkedIn о запуске Microsoft Publisher Content Marketplace (PCM). Эта новая инициатива разработана для поддержки высококачественного контента и процветающей контент-экосистемы по мере того, как веб развивается в сторону более разговорчивых, основанных на искусственном интеллекте возможностей. Это шаг к тому, чтобы сделать будущее веб-контента более устойчивым и полезным для всех.

Смотрите также

2026-02-04 16:46

Лимит файлов для Googlebot составляет 15МБ, но 64МБ для PDF и 2МБ для других типов файлов.

На протяжении многих лет Google имел возможность получать доступ к первым 15МБ веб-страницы. Недавно они обновили свою документацию, чтобы указать, что теперь они могут получать доступ до 64МБ PDF-файла, и к первым 2МБ большинства других типов файлов, которые они поддерживают.

Как SEO-эксперт, я хотел уточнить кое-что о файлах отклонения ссылок. Хотя ограничения в 64МБ и 2МБ – это не совсем *новая* информация, я понял, что не затрагивал их конкретно в своем предыдущем контенте. Я *действительно* осветил тот факт, что Google сканирует до 2МБ файла, но я не выделял это ограничение в 2МБ отдельно ранее. Так что просто хотел убедиться, что этот момент понятен!

При сканировании для Google Поиска, Googlebot сканирует первые 2 МБ поддерживаемого типа файла и первые 64 МБ PDF-файла. С точки зрения рендеринга, каждый ресурс, на который ссылается HTML (например, CSS и JavaScript), извлекается отдельно, и каждый запрос ресурса ограничен тем же ограничением размера файла, которое применяется к другим файлам (за исключением PDF-файлов).

Когда размер файла достигает максимального, который может обработать Googlebot, он прекращает загрузку и отправляет только ту часть, которую уже получил, для индексации. Это ограничение размера применяется к несжатому размеру файла. Имейте в виду, что другие Google-краулеры, такие как Googlebot Video и Googlebot Image, могут иметь различные ограничения по размеру.

Затем Google также обновил этот документ, добавив ограничение в 15 МБ, но это было не ново — теперь там говорится:

По умолчанию, краулеры и извлекатели Google сканируют только первые 15МБ файла. Любой контент за пределами этого лимита игнорируется. Отдельные проекты могут устанавливать различные лимиты для своих краулеров и извлекателей, а также для разных типов файлов. Например, краулер Google может установить больший лимит размера файла для PDF, чем для HTML.

Google недавно обновил свою документацию относительно того, сколько данных могут обрабатывать его веб-краулеры. Они переместили информацию об стандартных лимитах размера файлов для всех Google краулеров и fetchers в более центральное место в документации краулеров. Это также позволило им уточнить конкретные лимиты размера файлов для Googlebot, их основного веб-краулера. Google объяснил, что предыдущее местоположение для лимитов по умолчанию было неидеальным, поскольку оно применялось ко всем их инструментам, а не только к Googlebot.

Более точные детали полезно знать.

Смотрите также

2026-02-04 15:46

Google о предоставлении Markdown-страниц краулерам LLM

Джон Мюллер из Google затронул идею предоставления простых страниц в формате markdown непосредственно AI-краулерам и ботам. Хотя он и не дал однозначного ответа «да» или «нет», он выделил несколько потенциальных проблем и моментов, которые следует учитывать, если вы решите это сделать.

Markdown — это простой способ форматирования текста с использованием специальных символов. Он используется для создания документов, которые можно легко преобразовать в HTML, делая их доступными для просмотра в веб-браузерах.

Кто-то на Reddit спросил о потенциальных преимуществах и опасностях предоставления моделям ИИ для обработки текста в формате raw Markdown.

Джон ответил с этими опасениями:

  • Вы уверены, что они вообще могут распознать MD на веб-сайте как что-то отличное от текстового файла?
  • Могут ли они разбирать и переходить по ссылкам?
  • Что произойдет с внутренней перелинковкой вашего сайта, заголовком, нижним колонтитулом, боковой панелью, навигацией?
  • Одно дело вручную дать ему MD файл, а совсем другое — предоставить ему текстовый файл, когда они ищут HTML страницу.

Джон опубликовал пост в Bluesky, критикуя практику преобразования веб-страниц в markdown. Он отметил, что большие языковые модели на самом деле могут обрабатывать изображения, предполагая, что было бы проще просто использовать изображения для всего веб-сайта.

Поэтому имейте в виду эти вопросы, когда будете рассматривать возможность сделать это.

Благодарность Gagan за это: Hat tip to Gagan on this:

Задумываетесь об использовании markdown файлов для краулеров больших языковых моделей (LLM)? Джон Мюллер из Google поднял некоторые вопросы о том, могут ли краулеры правильно распознавать и обрабатывать markdown файлы на веб-сайте, или они видят их просто как обычный текст. Он также спрашивает, как это может повлиять на внутренние ссылки и заголовки на вашем сайте.

‘ Gagan Ghotra (@gaganghotra_) February 3, 2026

Также ознакомьтесь:

Я недавно добавил функцию на свой веб-сайт, которая позволяет инструментам искусственного интеллекта и поисковым системам получать доступ к страницам в упрощенном текстовом формате. Я думал, что это будет использоваться несколько раз, но в течение часа я получал сотни запросов от AI ботов, таких как ClaudeBot, GPTBot и OpenAI’s SearchBot!

‘ Dries Buytaert (@Dries) January 14, 2026

Смотрите также

2026-02-04 15:44

Отчёт Google Ad Network о недействительных кликах: Мошенничество против Случайных.

Майк Райан поделился информацией о недействительных кликах в Google Ad Network, разделив их на клики, которые, вероятно, были мошенническими или случайными. Данные показывают, что Google Display Network видит наибольшее общее количество недействительных кликов, в то время как клики от поисковых партнеров чаще идентифицируются как мошеннические.

Майк Райан поделился в LinkedIn информацией о том, что он проанализировал более 550 миллионов кликов по электронной коммерции за последний квартал 2025 года. Он использовал метрику Google Ads под названием ‘general invalid clicks’, которая является довольно новой.

Он обнаружил, что в Google Display Network самый высокий процент недействительных кликов. Вот краткое изложение его выводов:

  • Google Display Network имеет самый высокий процент недействительных кликов, почти 1 из 5 является IVT. Тем не менее, подавляющее большинство, по-видимому, не являются мошенническими. Я предполагаю, что большинство из них — случайные клики.
  • Более 10% кликов в Search Partner Network являются недействительными, но в отличие от GDN, явное большинство этих кликов являются ‘сложными’, то есть, вероятно, с плохими намерениями. Как всегда, я не являюсь поклонником SPN.
  • Хотя Google Search подвергается меньшему количеству атак, поразительно видеть равное разделение между доброкачественными и вредоносными ботами, учитывая, сколько доброкачественных ботов ежедневно перемещаются по Google.
  • Другие собственные и управляемые инвентари Google (YT, Discover, Maps, Gmail) все, как сообщается, имеют уровни SIVT настолько низкими, что их можно округлить. Хотя к ним чаще всего получают доступ через приложения и авторизованные учетные записи, эти показатели все еще кажутся слишком хорошими, чтобы быть правдой. Есть какие-либо мысли на этот счет?
  • Кросс-сетевая реклама, кстати, — это PMax. Это смесь всего остального, но с точки зрения взвешенного количества кликов, это в основном Google Search (включая Shopping) и немного YouTube.

Вот его диаграмма, отображающая эти данные:

Отличная работа, Майк!

Смотрите также

2026-02-04 15:45