Google показывает меньше обзоров AI в поиске?

Как опытный эксперт по SEO с более чем двадцатилетним опытом работы, я был свидетелем того, как постоянно развивающиеся алгоритмы Google танцуют под музыку поисковой оптимизации. Мое внимание привлекли недавние сообщения о снижении количества обзоров ИИ, особенно в секторах здравоохранения и финансов.

Google, похоже, сокращает частоту отображения сводок искусственного интеллекта в поиске Google, особенно в таких секторах, как здравоохранение и финансы (YMYL). Инструмент под названием Ziptie, который отслеживает обзоры искусственного интеллекта Google, показывает, что в целом Google сегодня показывает примерно на 4 процентных пункта меньше обзоров искусственного интеллекта по сравнению с неделей назад.

Как опытный веб-мастер, я внимательно отслеживаю тенденции с помощью универсального монитора Ziptie. В конце ноября я заметил, что Google отображает обзоры ИИ по более чем 17% всех запросов. Однако в настоящее время инструмент показывает, что Google показывает обзоры AI в среднем менее чем для 14% всех поисковых запросов (хотя сегодня утром этот показатель ненадолго превысил 14%, намекая на потенциальное восстановление).

В отличие от предыдущих тенденций, не каждая категория переживает спад. Например, количество запросов, связанных со здоровьем, сократилось с более чем 60 % времени до менее 50 %, а количество запросов о финансах снизилось примерно с 25 % времени до менее 19 %. Это может означать, что Google снизил частоту появления обзоров ИИ в разделах «ваши деньги, ваша жизнь».

Первоначально я заметил уменьшение количества случаев AIO, как упомянул Джон Вантайн на Bluesky. Он выразил это наблюдение в своем посте, сказав: «Специалисты по SEO, похоже, что с конца ноября произошло значительное снижение распространенности AIO, согласно этому полезному трекеру от ZipTie. Примечательно, что существенное снижение произошло в сфере финансов и здравоохранения. Есть ли у кого-нибудь какие-нибудь теории о том, что может быть причиной этого?» Он не выглядел расстроенным по этому поводу.

Я попытался связаться с Ziptie, но они не опровергли информацию и не упомянули о каких-либо проблемах с их системами отслеживания.

С моей точки зрения как опытного веб-мастера, хотя на первый взгляд инструмент Semrush для обзоров ИИ может и не показывать спад, важно отметить, что этот инструмент отслеживает более ограниченное количество запросов. Однако если вы углубитесь в конкретные отрасли, Semrush сообщит о падении объема поиска.

Вот совокупность:

Но, как заметил Гленн Гейб на X: «Я наблюдаю аналогичные падения для некоторых вертикалей при проверке Semrush (не тогда, когда ранжируются конкретные домены, а когда AIO появляются на основе всех запросов, по которым ранжируются эти домены). Так что, возможно, распространенность AIO снизилась. немного недавно, я скоро углублюсь, но стоит отметить».

Наблюдено снижение количества интегрированных органических результатов (AIO) на страницах результатов поисковых систем (SERP), однако довольно сложно убедиться в точности этого наблюдения. Однако при изучении данных Semrush я заметил сопоставимое снижение в некоторых секторах. Это не обязательно связано с рейтингом конкретного домена, а скорее с появлением AIO на основе всех запросов по различным поисковым запросам».

» Гленн Гейб (@glenngabe), 7 декабря 2024 г.

Заметили ли вы снижение частоты появления ваших веб-сайтов в сводках AI? Я нахожу это несколько удивительным, поскольку их число, кажется, снижается, но, возможно, Google обнаружил некоторые проблемы и решил принять меры, прежде чем мы сможем их решить?

В мае Google выпустил большое качественное обновление для AI Reviews, которое в отрасли назвали обновлением Ray.

Смотрите также

2024-12-09 15:14

Наконец завершено развертывание основного обновления Google за ноябрь 2024 г.

Как опытный специалист по SEO с более чем десятилетним опытом работы за плечами, я видел немало обновлений Google, и это последнее заставило меня почесать голову больше, чем обычно. Хотя всегда приятно видеть, как Google настраивает свои алгоритмы для улучшения качества поиска, на многих сайтах, в том числе и на моем, реальность совершенно иная.


Вчера, примерно в 13:30 по восточному времени, завершился выпуск основного обновления Google от ноября 2024 года. Этот процесс начался 11 ноября 2024 года в 15:30 и продолжался до 13:30 5 декабря 2024 года, охватывая в общей сложности более трех недель, что почти вдвое превышает первоначальную двухнедельную оценку.

В сообщении Google говорится: «Внедрение завершено 5 декабря 2024 года».

Это было третье основное обновление в 2024 году и, вероятно, последнее в этом году.

Краткая информация об обновлении ядра Google за ноябрь 2024 г.

Вот самые важные вещи, которые мы знаем сейчас в краткой форме:

  • Имя: Расширенное основное обновление Google, ноябрь 2024 г.
  • Запуск: 11 ноября 2024 г., около 15:30 по восточному времени.
  • Завершено: 5 декабря 2024 г., около 13:30 по восточному времени (23 дня и 13 часов).
  • Цели: рассматриваются все типы контента.
  • Наказание. Это не наказание, оно продвигает или вознаграждает отличные веб-страницы.
  • Глобально. Это глобальное обновление, затрагивающее все регионы и на всех языках.
  • Воздействие: Обычное обновление ядра, связанное с полезным контентом.
  • Обнаружение: основные обновления влияют на Google Discover и другие функции, а также фрагменты функций и многое другое.
  • Восстановление. Если вас это затронуло, вам нужно будет просмотреть свой контент и посмотреть, сможете ли вы добиться большего, воспользовавшись основными советами Google по обновлению.
  • Обновления. Google будет периодически обновлять этот алгоритм, но может не сообщать об этих обновлениях в будущем. Возможно, это то, что мы видели последние пару недель или все эти неподтвержденные обновления Google.

Подробности основного обновления Google за ноябрь 2024 г.

В своем объявлении о базовом обновлении в ноябре 2024 года компания Google заявила, что цель этого обновления — еще больше повысить качество результатов поиска за счет отображения более полезной информации и уменьшения количества контента, который, по-видимому, в первую очередь предназначен для повышения рейтинга в результатах поиска.

Вот твиты:

Внедрение завершено.

» Центр поиска Google (@googlesearchc), 5 декабря 2024 г.

Что мы увидели в основном обновлении за ноябрь 2024 г.

Это истории, которые мы сочинили с учетом основного обновления Google от ноября 2024 года. Основное обновление Google за ноябрь 2024 года началось в понедельник, 11 ноября, в 15:30 по восточному времени, а небольшие изменения начались примерно 13 и 14 ноября, но они не были слишком широко распространены. Затем, примерно с 16 ноября, мы заметили значительно большую активность и колебания. Это продолжалось до второй недели обновления, до 25 и 26 ноября, вплоть до 27 и 28 ноября, выходных в честь Дня Благодарения. Однако ситуация снова стала спокойной примерно до 3 декабря, когда она снова начала расти.

Обновление ядра инструментов отслеживания Google в ноябре 2024 г.

Развертывание обновления заняло около 24 дней, поэтому вот эти инструменты отслеживания волатильности и то, что они показали:

Семраш:

Похожие веб-сайты:

Систрикс:

Винчер:

Когнитивное SEO:

Аккуранкер:

Расширенные веб-рейтинги:

Мозкаст:

Мангулы:

Алгору:

Поисковая статистика:

Данные для SEO:

SEO-болтовня

Обновление завершено. По мнению Google, это должно улучшить качество поиска. А если серьезно, вы видите улучшение? Я вижу только обратное.

Значит, мы можем предположить большую волатильность в течение следующей недели или двух?

Как SEO-специалист, я отслеживаю множество сайтов. И я могу вам сказать, что в этом обновлении порносайты будут уничтожены. Любые независимые порносайты с видео, уже размещенными на других доменах, обычно подвергаются атаке. Наверное, в этом моя вина. Моя вина.

Я думаю, что он закончился в понедельник, 2 декабря, поскольку за последние несколько дней трафик увеличился. Тем не менее, как обычно, G забыл вернуть недостающий трафик, а у меня все еще минус 20%. Могло быть и хуже, я думаю. Но то, что подразумевалось под двухнедельным «обновлением», в итоге длилось целый месяц и для чего именно? Как уже упоминалось, я не вижу никаких улучшений. Просто предлог, чтобы уничтожить больше веб-сайтов ради собственной выгоды. В конце концов, это закончилось сразу после Черной пятницы и Киберпонедельника.

Несколько лет назад Google говорил о снижении стандартов качества, чтобы заставить пользователей больше искать, и это основное обновление может продолжать основываться на этом (снижение качества для увеличения прибыли). Неудивительно, что у нас меньше трафика и сложнее получить конверсии.

В первый день я увидел относительно нормальную структуру трафика, но не очень хорошую. В некоторых категориях еще -80%. Но, похоже, он восстанавливается очень медленно. Если такое дерьмо происходит раз в месяц, то половина месяца будет с плохим трафиком и отсутствием клиентов…

кажется, сегодня вечером еще больше трясется. ржу не могу. Вы не можете это придумать.

Предыдущие общие обновления

список последних крупных изменений, также известных как непроверенные или фантомные обновления, которые Google признал с тех пор, как начал их подтверждать.

Влияние предыдущего обновления полезного контента

Вот список предыдущих обновлений полезного контента Google:

Что вы заметили в этом обновлении? Неужели Google повысил качество результатов поиска?

Смотрите также

2024-12-06 16:44

Google пытается справиться с неработающими каноническими текстами

Как опытный специалист по цифровому маркетингу с многолетним опытом работы в тонкостях поисковой оптимизации (SEO), я не могу переоценить важность правильной канонизации и последовательности в нашей работе. Недавнее интервью Search Off The Record с участием Аллана Скотта из команды поиска Google пролило ценную информацию о том, как Google решает потенциальные проблемы, связанные с неработающими или неправильными каноническими тегами.


На случай, если сегодня возникнет путаница в отношении кластеризации и канонизации, давайте рассмотрим сценарий, в котором вы можете допустить ошибку или ваша CMS неожиданно выйдет из строя, в результате чего она будет предоставлять Google неправильный контент. Учитывая важность последовательности и эффективного информирования об этом Google, полезно знать, что Google пытается управлять потенциально неработающими или вводящими в заблуждение каноническими URL-адресами.

Об этом говорилось в превосходном интервью Search Off The Record Аллана Скотта из команды Google Search, который специально занимается дублированием в Google Search. Мартин Сплитт и Джон Мюллер из Google взяли интервью у Аллана.

Примерно на 27 минуте 57 секунде Аллан обсудил некоторые исключительные сценарии и подход Google к их решению. По сути, Google прилагает усилия для управления неправильными или неуместными сигналами канонизации. Проще говоря, Аллан заявил, что у нас есть система, позволяющая взламывать тег «rel=’canonical’», когда мы подозреваем, что он может быть неправильным.

Вот что он сказал:

Когда я вижу людей, которые помещают мусор в поле rel=»canonical». Иногда сценарий идет не так, и вы можете увидеть это: «О, должна была быть какая-то оценка переменной, но этого не произошло». Вы видите что-то вроде $variable name или что-то в этом роде, а затем все rel=»canonical» на сайте внезапно указывают на имя хоста/переменную. Или, в другом случае, я видел, как люди просто оставляли поле пустым, и это имело смысл.

Поэтому я думаю, что парсер на самом деле превращает это в косую черту.

Это должен быть относительный путь. Но я думаю, что на самом деле это касается корня сервера. По сути, это то же самое, что сказать: «Пожалуйста, сотрите мой сайт, хорошо?» Вы должны быть очень осторожны. Я должен внести ясность здесь. У нас есть некоторая проверка, чтобы попытаться сломать rel=»canonical», когда мы считаем, что они неправы. Но это еще один айсберг. Например, у нас есть очень старая функция, на которую по сути опираются для этого, а новая функция, которую мы хотели бы использовать для этого, на данный момент находится в разработке уже много лет. Будет ли у нас когда-нибудь хорошая проверка rel=»canonical»? Не знаю, а между тем тот, что у нас есть, несовершенен и, если допускать ошибки, часть из них поймает, а часть пропустит.

Насколько я понимаю, полученные нами данные основаны в первую очередь на обычных ежедневных операциях, о чем свидетельствует интервью Google с Алланом Скоттом.

Вот видео:

Смотрите также

2024-12-06 16:44

Поиск в Google: как кластеризация работает с локализацией

Как опытный специалист по цифровому маркетингу с более чем десятилетним опытом работы за плечами, я не могу не чувствовать себя просвещенным и ошеломленным недавними открытиями Аллана Скотта о технологии кластеризации и локализации Google Search. Это все равно, что нырнуть с головой в темные глубины самого сложного айсберга SEO (каламбур) только для того, чтобы обнаружить, что верхушка айсберга — это только начало!


Что касается продолжающейся дискуссии о кластеризации и стандартизации в Google Search, Аллан Скотт из Google рассказал, как их система кластеризации взаимодействует с функциями геолокации. Однако важно отметить, что конкретная работа этой интеграции в некоторой степени зависит от контекста, поэтому давайте рассмотрим ее дальше.

Об этом говорилось в превосходном интервью Search Off The Record Аллана Скотта из команды Google Search, который специально занимается дублированием в Google Search. Мартин Сплитт и Джон Мюллер из Google взяли интервью у Аллана.

Во время интервью на 8:35 минуте Аллан объяснил, что когда дело доходит до понимания того, как кластеризация работает с локализацией, важно помнить, что мы видим лишь небольшую часть «айсберга локализации». Под поверхностью скрывается гораздо больший и более сложный аспект. Другими словами, его ответ предполагает, что способ взаимодействия кластеризации с локализацией зависит от факторов, которые не очевидны или не видимы сразу.

Проще говоря, концепции локализации и hreflang, как заявил Google, могут быть наиболее сложными аспектами поисковой оптимизации (SEO). Аллан объяснил, что если эти темы кажутся загадочными с внешней точки зрения, они в равной степени сбивают с толку и внутри. Он упомянул, что они уже довольно давно пытаются реализовать локализацию на практике, поскольку это очень сложная тема.

Как объяснил Аллан, Google делит локализацию на два основных типа. Первый тип предполагает простой шаблонный перевод, который часто можно увидеть на крупных сайтах социальных сетей, где контент остается неизменным. Второй тип — это полный перевод, при котором все содержимое страницы преобразуется в соответствии с целевым языком.

Аллан отметил, что стандартный или рутинный контент не является главным приоритетом для Google, он выразился так: «Мы не слишком сосредоточены на этом и не придаем этому большого значения». Однако другие формы контента действительно важны.

Аллан сказал:

Но страницы полного перевода не должны кластеризоваться, поскольку они имеют разные токены, которые они собираются получать для разных запросов, поэтому мы не хотим, чтобы они находились в одном кластере. Мы хотим, чтобы все эти страницы были доступны для поиска. Шаблонные переводы мы хотим поместить в один кластер. Это означает, что они будут консолидировать сигналы, но это также означает, что нам не нужно сканировать каждый вариант локализации, потому что, честно говоря, вы знаете, мы тратим впустую вашу пропускную способность и тратим при этом свое пространство. . Вот почему это зависит. Мы хотим решить эти проблемы двумя разными способами, и важно, какой из них вы делаете. А потом вы получаете действительно сложные ситуации, вроде того, что вы сказали, где они просто изменили цену. Эти становятся сложнее, потому что по сути это тот же контент, но за один токен. Но этот знак действительно имеет значение. И затем в этом случае с токенами мы все еще хотим, чтобы они были в разных кластерах. Теоретически это более сложная проблема, чем, как вы знаете, не поместить два варианта языка в один кластер. Но, знаете, именно поэтому локализация — это трудная задача.

Кроме того, помимо всей кластеризации для дублирования, здесь также используется hreflang. Аллан сказал:

На вершине всех этих разговоров о кластеризации, которая сама по себе является системой дублирования, есть hreflang, который по сути представляет собой отдельную систему, где, если вы добавите аннотации, мы попытаемся их заменить. Джон знает, что сейчас существует проект, который может быть запущен или не запущен к концу года и направлен на расширение охвата именно этого. Мы хотим предоставлять больше вариантов hreflang. Мы хотим использовать это больше, но нам необходимо внедрить механизмы, которые будут определять, насколько мы можем доверять этому сайту. По сути, мы проводим сканирование и проверку, чтобы определить, правильно ли этот сайт отображает свою карту, и если да, то мы постараемся обслуживать ее чаще, не обязательно проверяя ее так сильно, как в настоящее время мы это делаем.

Мое внимание привлекла следующая цитата: «Джону известно о текущем проекте, статус которого к концу года неясен, целью которого является, в частности, расширение его влияния. Google стремится предоставить большее количество вариантов hreflang.

В любом случае, эта тема продолжается, вот вставка, которую вы можете послушать:

Смотрите также

2024-12-06 16:44

Google мародерствует в черных дырах с помощью кластеризации и страниц ошибок

Как опытный специалист по цифровому маркетингу с более чем десятилетним опытом работы за плечами, я не могу не почувствовать смесь веселья и беспокойства, услышав о «мародирующих черных дырах» Google. Это похоже на бесконечную игру в «ударь крота», где, как только вы думаете, что устранили одну проблему, всплывает другая.


В связи с текущим обсуждением кластеризации и нормализации поиска Google Аллан Скотт из Google представил концепцию, которую он назвал «блуждающими темными дырами» в поиске Google. По сути, когда процесс кластеризации Google обнаруживает некоторые страницы с ошибками, они могут попасть в своего рода виртуальную яму в поиске Google.

В увлекательной беседе во время подкаста Search Off The Record мне выпала честь узнать мнение Аллана Скотта, члена команды Google Search, который специализируется на решении проблем дублирования в нашей поисковой системе. Интервью провели Мартин Сплитт и Джон Мюллер, также из Google.

Аллан пояснил, что некоторые «мародирующие черные дыры» возникают из-за неудачной связи между «страницами ошибок и кластеризацией». По сути, он заявил: «В некоторых случаях страницам ошибок непреднамеренно присваивается контрольная сумма, как и любой другой странице. Поскольку эти страницы затем группируются на основе своих контрольных сумм, они имеют тенденцию объединяться вместе, что может привести к слипанию страниц ошибок друг с другом. это имеет смысл на данный момент?

Мартин Сплитт из Google объяснил это так: «Он имел в виду ситуации, когда на сайте есть около 20 продуктов, которые больше не доступны, и вместо страницы с ошибкой отображается сообщение «товар недоступен». Эта страница по-прежнему возвращает HTTP 200, но на самом деле ее содержимое такое же, как и раньше, поэтому контрольная сумма остается неизменной. Это может привести к странным ситуациям.

Похоже, что Google считает эти страницы ошибок идентичными, поскольку они имеют одинаковые контрольные суммы.

Как опытный веб-мастер, я бы сказал это так: контрольная сумма — это компактный фрагмент информации, сгенерированный из большого фрагмента цифровых данных. Его основная роль — помочь выявить любые ошибки, которые могли возникнуть во время передачи или хранения данных. Хотя контрольные суммы отлично подходят для обеспечения целостности данных, они не проверяют подлинность самих данных.

Для Аллана заявление Мартина послужило иллюстрацией. Он подтвердил: «Действительно, это точное отражение моей точки зрения. На самом деле, в таком случае веб-мастер может не сильно беспокоиться, потому что, если эти продукты будут удалены навсегда, они предпочитают, чтобы они исчезли, поэтому это не является серьезной проблемой. Однако если они временно отсутствуют, это вызывает беспокойство, поскольку они, скорее всего, не появятся снова, поскольку сканеры не любят дубликаты. По сути, они думают: «Эта страница является дубликатом». .’ Вот почему он функционирует как черная дыра.

Эта информация потенциально может быть поглощена черной дырой, а это значит, что она больше не будет доступна или не замечена поисковыми алгоритмами Google в течение некоторого времени, хотя возможно, что она может появиться снова позже.

Аллан отметил, что только те элементы, которые находятся ближе всего к началу группы, вероятно, появятся снова.

Аллан, кажется, обеспокоен этой проблемой, поскольку он упомянул, что сайты с временными ошибками, такие как тот, который вы описали, для него в некотором роде похожи на намеренно созданные временные ошибки. Он объяснил, что это означает, что один раз из тысячи ваша система сообщит им об ошибке. Это может привести к появлению огромного количества мертвых страниц или к тому, что он назвал «мародерствующей черной дырой». Что еще хуже, он также обслуживает множество зависимостей JavaScript, заключил он.

Вот еще разговоры Аллана и Мартина по этому поводу:

Аллан:

Если их не удастся загрузить, это может привести к поломке вашего рендеринга, и в этом случае мы посмотрим на вашу страницу и подумаем, что она сломана. Фактическая надежность вашей страницы после прохождения этих этапов не обязательно будет очень высокой. Нам приходится сильно беспокоиться о том, чтобы такие мародерствующие скопления черных дыр не захватили территорию, потому что все просто выбрасывается.
в них, например, были сайты социальных сетей, где я просматривал, ну, вы знаете, самые известные профили, и под ними была просто куча страниц, некоторые из них сами по себе были довольно известными и просто не принадлежали к этому кластеру. .

Мартин:

Ох, боже. Хорошо. Ага. Я видел нечто подобное, когда кто-то проводил A/B-тестирование новой версии своего веб-сайта, а затем некоторые ссылки ломались с сообщениями об ошибках, потому что API изменился, и вызовы больше не работали, или что-то в этом роде. И тогда, примерно в 10% случаев, вы получите сообщение об ошибке практически для всего их контента. Да, думаю, выбраться из этого было непросто.

Джон Мюллер рассказал о случаях, когда это может быть проблемой с CDN:

Я также видел кое-что похожее на это: если перед сайтом есть какая-то CDN, CDN выполняет какое-то обнаружение ботов или обнаружение DDoS, а затем выдает что-то вроде: » О, похоже, ты бот», а Googlebot отвечает: «Да, я бот». Но тогда все эти страницы, я думаю, в конечном итоге будут сгруппированы вместе и, вероятно, на нескольких сайтах, верно?

Аллан подтвердил это и сказал, что Гэри Иллис из Google работал над этим здесь и там:

В принципе да. На самом деле Гэри кое-что разъяснил нам по этому вопросу. Знаете, мы сталкиваемся с такими случаями и стараемся привлечь поставщиков подобных услуг к сотрудничеству с нами или хотя бы к работе с Гэри. Я не знаю, что он с ними делает. Он отвечает за это. Но не все из них столь отзывчивы. Так что об этом следует знать.

Аллан сообщил, что лучший способ предотвратить попадание вашего сайта в тупиковые зоны Google, часто называемые «черными дырами», — это отправка соответствующих кодов ответа HTTP. Это означает, что если страница не найдена или доступ запрещен, используйте 404 или 403 соответственно. Для временных проблем используйте 503. Помните, что только страницы с кодом состояния 200 будут кластеризованы и потенциально могут оказаться в черной дыре.

Другой вариант, который сказал Аллан, был:

Другой вариант: если вы используете JavaScript foo, в этом случае вы не сможете отправить нам HTTP-код. Возможно, для этого уже слишком поздно. Что вы можете там сделать, так это попытаться обработать фактическое сообщение об ошибке, что-то, что очень заметно является ошибкой, например, вы знаете, вы можете буквально просто сказать, вы знаете, 503 — мы столкнулись с ошибкой сервера или 403 — вы не были авторизован для просмотра или 404 — мы не смогли найти правильный файл. Любая из этих вещей сработает. Знаете, вам даже не нужно использовать HTTP-код. Очевидно, вы могли бы просто сказать что-нибудь. Итак, у нас есть система, которая должна обнаруживать страницы с ошибками, и мы хотим улучшить ее отзыв по сравнению с тем, что она делает сейчас, чтобы попытаться решить некоторые из этих плохих рендерингов и этих ошибок, связанных с типами страниц, обслуживаемых ботами. Но в то же время, как правило, безопаснее взять все в свои руки и постараться убедиться, что Google как можно лучше понимает ваши намерения.

Они продолжают и говорят об этом, и все начинается где-то на 16:22 минуте — вот вставленное видео:

Смотрите также

2024-12-06 16:45