Google Discover, режим AI и что это означает для издателей: интервью с Джоном Шехатой

В последнее время, характеризующееся появлением сводок от искусственного интеллекта и постоянными изменениями в Google, редакторы новостей столкнулись с трудным периодом. Хорошей новостью стало то, что теперь Google Discover доступен на настольных компьютерах.

С другой стороны, недавнее введение режима AI может привести к тому, что пользователи перестанут пользоваться стандартной строкой поиска, что потенциально снизит эффективность функции ‘Discover’ как решения.

Как опытный вебмастер, недавно я имел честь провести плодотворную беседу с Джоном Шехатой, признанным экспертом в области Google Discover, роста цифровой аудитории и поисковой оптимизации для издателей новостей. Этот диалог предоставил мне ценные сведения о современном состоянии SEO-ландшафта для новых участников издательского дела.

Шехата является создателем NewzDash и имеет более чем двадцатилетний опыт работы в этой области. Этот багаж знаний поддерживается различными руководящими должностями в таких уважаемых изданиях как Vogue, The New Yorker и GQ под эгидой Condé Nast.

В ходе нашей дискуссии мы подробно изучаем возможные последствия доступности Google Discover на настольных компьютерах, что может привести к возвращению некоторого ранее утраченного веб-трафика, а также появление Искусственного Интеллекта (ИИ) в пользовательских интерфейсах поиска.

Как эксперт по SEO, я часто обсуждаю роль ИИ в управлении страницами результатов поисковых систем (SERP). Вот мои рекомендации для брендов и создателей контента, как эффективно ориентироваться в этом меняющемся ландшафте: 1. Приоритезировать качественный контент: Алгоритмы AI разработаны так, чтобы отдавать предпочтение высоко-качественному, релевантному и увлекательному контенту. Убедитесь, что ваш контент ценен, оригинален и хорошо структурирован для оптимальной видимости. 2. Оптимизировать пользовательский опыт: ИИ предпочитает сайты с плавным UX. Сосредоточьтесь на мобильной адаптивности, быстром времени загрузки, интуитивной навигации и удобной читаемости. 3. Использовать семантический поиск: AI лучше понимает контекст поисковых запросов, чем когда-либо прежде. Используйте релевантные ключевые слова, синонимы и связанные термины, чтобы помочь вашему контенту появляться в большем количестве запросов. 4. Создавать сильное онлайн присутствие: Установление авторитета в нише может повысить вашу видимость. Это включает создание высококачественных бэклинков, взаимодействие с аудиторией в социальных сетях и поддержание постоянного присутствия в интернете. 5. Быть в курсе последних трендов: Следите за последними тенденциями и обновлениями в AI и SEO, чтобы оставаться впереди конкурентов. Цифровой ландшафт постоянно меняется, поэтому важно адаптироваться и внедрять инновации соответственно.

Вы можете посмотреть полное видео здесь и найти полную расшифровку ниже:

https://www.youtube.com/watch?v=Leh4r23sj6w

ИМХО: Google Discover, искусственный интеллект и их значение для издателей (транскрипт)

Шелли Уолш: Джон, могли бы вы поделиться своими мыслями о предполагаемом влиянии AI на трафик новостных изданий?

Джон: В среднем многочисленные исследования показывают, что веб-сайты могут испытывать потерю трафика в диапазоне от 25% до 32%, преимущественно из-за внедрения новейших систем ИИ для создания кратких выдержек.

На данный момент нет конкретных исследований, проведённых для новостных издателей, поэтому мы сейчас работаем над этим.

Примерно год назад мы провели анализ и обнаружили, что около 4% всех запросов новостей вызывали краткое резюме от ИИ. С тех пор прошел год.

В NewsDash мы представляем инновационный элемент: отслеживание в реальном времени обзорных данных по ИИ для каждого новостного запроса по мере их роста популярности. Примечательно, что данная функция пока показала наибольшее влияние на сектора здравоохранения и бизнеса.

Примерно четверть всех запросов новостей касалась здоровья, в то время как бизнес, хоть точную цифру я и не помню, составил около 8%. Что касается главных трендов новостей, это было почти несущественно.

Примерно через два месяца мы соберем надежные данные, однако из моих исследований год назад видно, что интеграция для новостных запросов ограничена за исключением некоторых специализированных областей.

В настоящее время исследования показывают, что они испытывают снижение трафика от 25% до 32%.

Может ли Google Discover восполнить потерю?

Шелли: Судя по моим личным наблюдениям, издатели столкнулись со значительными трудностями не только из-за ИИО (AIO), но и благодаря многочисленным полезным обновлениям Google за последние полтора года. В ходе исследования для нашего разговора я наткнулся на статистические данные, которые показывают…

Учитывая существующее распределение трафика с 90% от мобильных устройств и 10% от настольных компьютеров, это обновление может привести к росту Discover-трафика для издателей примерно на 10-15%.

Вы считаете, что Discover может потенциально компенсировать потери трафика, которые испытывает AIO? Будет ли сосредоточение усилий исключительно на Discover жизнеспособной долгосрочной стратегией для издателей в текущих рыночных условиях?

Джон: Действительно, этот вопрос весьма интересен. Я размышлял над идеей, своего рода подозрением, что Google может направлять больше веб-трафика через Discover к создателям контента, одновременно снижая трафик из результатов поиска.

Эй, вместо того чтобы зацикливаться на этом, давайте сосредоточим внимание на поиске чего-то нового. Говоря проще, давайте исследовать, раскрывать и открывать вместе. И я могу ошибаться полностью.

Google Discover представляет проблему, поскольку он может быть весьма непредсказуемым, но трудно устоять перед его влиянием. В результате издатели часто обнаруживают, что более половины их веб-трафика приходится на Google Discover.

Мне кажется, что издатели могут постепенно забывать о важности поиска и уделять больше внимания функции Discover. На мой взгляд, это может быть рискованной стратегией.

По моему мнению, Google Дискавер работает скорее как средство распространения контента, нежели как стратегический подход. Поэтому крайне важно уделять первостепенное внимание качеству вашего материала независимо от того, делитесь ли вы им через социальные сети, Google Дискавер, поисковые результаты или другие каналы.

Мне кажется, что функция «Discover» работает как продолжение функции поиска. Соответственно, если ваш рейтинг в поисковой выдаче уменьшается, то и трафик от этой функции также со временем снижается — тенденция, которую я наблюдал ранее.

В некоторых случаях мы сотрудничаем с клиентами, предпочитающими более социально ориентированную или исследовательскую стратегию. Это означает, что они часто используют привлекательные заголовки, краткие описания и стремительный темп публикаций – постоянно выпуская новый контент один за другим.

За шесть месяцев я заметил значительное снижение поискового трафика на моем сайте. Этот спад затронул не только обычные результаты поиска, но и раздел Discovery, к сожалению, теперь мой контент отсутствует также в разделе Новости.

Google достиг той стадии, когда начал оценивать, что данный издатель больше не попадает в категорию новостных издателей.

Итак, это предупреждение.

Как опытный вебмастер, я усвоил, что хотя использование Google Discover для трафика может быть полезным, оно не должно являться основой вашей онлайн-стратегии. Максимально используйте каждую посетителя от Google Discover, но всегда помните о возможности непредсказуемого исчезновения трафика без явной причины. Очень важно разнообразить стратегии и сосредоточиться на долгосрочном росте для устойчивого успеха в цифровом мире.

Как эксперт по SEO, я получаю множество вопросов из Бразилии и других стран относительно значительных потерь трафика на их крупных веб-сайтах в апреле месяце. Несмотря на отсутствие изменений в технических или редакционных аспектах этих сайтов, они столкнулись с резким снижением числа посетителей.

Говоря проще, то о чём идёт речь — это не долгосрочный план или стратегия, а скорее краткосрочное действие или метод, которым стоит воспользоваться в полной мере. Однако для более стратегического подхода рекомендую рассмотреть диверсификацию как общий план.

Прямо сейчас Google составляет примерно 80% трафика издателей, включая поисковые запросы, Discovery и прочее.

Действительно, я твердо убежден, что новостные рассылки играют важную роль независимо от того, насколько они популярны или влияют на большинство партнерств.

Издателям было бы благоразумно тщательно обдумать пути расширения разнообразия их контента, привлечения большего числа посетителей и разработки множества источников дохода.

Режим Возрастания Искусственного Интеллекта

Шелли: Переходя к другой теме, я бы хотела обсудить с вами режим ИИ. Меня заинтересовало кое-что интригующее из того, что вы упомянули об этом в LinkedIn.

Говоря проще, вы упомянули, что режим искусственного интеллекта (AI) может быть установлен как стандартная точка зрения в будущем. Это могло бы привести к увеличению количества просмотров, но уменьшению кликов от пользователей.

В свете текущих трендов, какое развитие страниц результатов поисковой системы (SERP) вы ожидаете увидеть в следующем году с учетом важности сосредоточения внимания на этих результатах для издателей?

Джон: Когда речь заходит о развитии страниц результатов поиска (SERPs), сначала мы столкнулись с простыми синими ссылками. Однако Google осознала недостаточную эффективность этого подхода и ввела так называемый универсальный поиск. С этим обновлением стали доступны различные элементы, что обеспечило более полное поисковое взаимодействие.

Более того, это не остановилось на достигнутом; начали интегрироваться избранные фрагменты и прямые ответы. В конечном итоге всё зависит от пользовательского опыта.

За последний год был значительный рост использования технологий Языковых моделей (LMM), таких как ChatGPT, а также терминов вроде Perplexity. Это быстрое развитие привело к тому, что Google все чаще внедряет искусственный интеллект в свои сервисы.

Всё началось с SGE и развилось до AI Overview, а совсем недавно был запущен режим AI.

Как профессионал в области цифрового маркетинга, я не могу не согласиться с Сундаром из Google о будущем поиска. Искусственный интеллект (ИИ) действительно является нашим будущим и представляет собой не просто тренд, а трансформацию, которая пронижет каждый продукт и поисковый опыт, который мы знаем сегодня. Эта революция на основе ИИ установится доминировать над ландшафтом, определяя способы нашего взаимодействия с информацией и услугами в интернете.

1. Сколько людей может перейти на использование режима ИИ?
2. Соответствует ли их ожиданиям текущий формат краткого обзора ответа?

А если они захотят углубиться в тему, то могут обратиться к ссылкам или сайтам с источниками и так далее.

Неясно когда искусственный интеллект может взять верх над традиционным поиском. Однако стоит учесть следующее: посещение интерфейса Perplexity и просмотр результатов поиска кажутся словно взаимодействием между искусственным интеллектом и традиционными результатами.

Проще говоря, вероятно, взаимодействие с инструментами вроде ChatGPT станет стандартом в будущем при работе с поисковыми системами и генеративными технологиями, независимо от того, произойдет это скоро или немного позже.

Основываясь на наших наблюдениях, трудно точно предсказать когда это произойдет, но я полагаю, что это не будет слишком далеко от нас в будущем, особенно учитывая, что поколение Z предпочитает общение длительному поиску. Это значит, изменения могут произойти скорее раньше, чем позже.

Похоже, что мы станем свидетелями этого развития в ближайшее время. Я не могу точно сказать когда, но предполагаю, что сейчас они оценивают взаимодействие пользователей с режимом AI и сводками от ИИ для принятия решений по последующим действиям.

Видимость, а не трафик — новая метрика.

Кроме того, похоже, что ИИ может выступать в качестве хранителя страниц результатов поисковых систем (SERP).

Учитывая, что ассистенты по юридическим вопросам типа LLMA и режим ИИ не исчезают, какие стратегии вы применяете при работе с вашими клиентами для адаптации к изменяющемуся ландшафту?

Джон: Вчера состоялась продолжительная дискуссия с одним из наших клиентов по различным темам.

Проще говоря, я предложил начать с мониторинга, затем провести анализ и после этого принимать меры. Такая последовательность является критически важной, поскольку преждевременное действие без достаточной информации о влиянии ИИ на их платформу, сайты и общий трафик может привести к нежелательным результатам. Один лишь трафик не является единственным значимым показателем для учета.

На протяжении поколений это звучало как вопрос о трафике, но так быть не должно.

Поскольку новый мир характеризуется снижением уровня веб-трафика, это представляет собой проблему для издателей, которые в основном полагаются на трафик как основной источник дохода.

Вы можете измерить свои транзакции или конверсии независимо от того, получаете ли вы трафик или нет.

ЧатГПТ проводит интеграцию с Шопифэй.

Обзор искусственного интеллекта от Google предоставляет прямые ссылки на покупки, позволяя вам приобретать товары непосредственно через Google или другие веб-сайты. Это исключает необходимость прохождения нескольких этапов, например, сначала посещения сайта, а затем совершения покупки.

Я думаю, вам нужно отслеживать и анализировать, где вы теряете свой трафик.

Должны ли издатели уделять приоритетное внимание этим конкретным областям (вертикалям) для своего контента или нет? Важно следить за видимостью вашего контента в этих областях.

Все чаще люди ищут последние новости. Вчера я написал в LinkedIn о том, что если кто-то ищет «Met Gala 2025», то Гугл покажет самые релевантные заголовки и все актуальные новостные статьи по этой теме.

Как SEO-эксперт, я бы переформулировал это так: ‘Если вы настроите свой поиск на вопросы вроде «Что произошло на Met Gala?», «Что случилось между Трампом и Зеленским?» или «Каковы подробности того конкретного события или момента?», то обнаружите более релевантные результаты.’

Гугл определил, что вы предпочитаете сжатую и обобщенную версию текста вместо чтения множества источников для понимания основных моментов.

События вчерашнего дня были кратко изложены с акцентом на основную тему. Представлены ключевые моменты, которые служат дорожной картой для дальнейшего изучения.

С увеличением числа пользователей предпочитающих краткие резюме вместо повторных заходов на веб-сайты ожидается снижение количества генерируемых просмотров.

Все более вероятно, что схемы будут играть значительную роль в том, как ChatGPT находит контент. Я полагаю, мы увидим рост числа издателей, устанавливающих прямые связи или соглашения с различными моделями обучения языкам (LLM).

Важно учитывать ситуацию, когда чат-боты вроде ChatGPT и другие модели языкового обучения (LLMs) должны компенсировать издателям за информацию, которую они используют. Это может быть в виде оплаты контента, используемого при их обучении, или конкретных данных, таких как поисковые запросы, к которым они имеют доступ.

Похоже, важно рассмотреть возможность появления нового источника дохода, возможно связанного с обменом или транзакцией, как дополнительного финансового ресурса для издателей.

Приоритет анализа перед новостями о товарах

Действительно, разве это не значительная проблема перед нами стоит? Традиционные издательства новостей усердно стараются обеспечить высококлассные свежие новости, в то время как крупные языковые модели (LLM) кажутся извлекающими выгоду из этих усилий.

Если они планируют выпускать только обобщения (summaries), похоже, мы можем вернуться к начальным стадиям развития Google, где все критиковали компанию за похожие действия.

Может ли быть полезно для издателей новостей адаптировать свой подход и тип создаваемого контента? И реально ли такое изменение с учетом текущих обстоятельств?

Джону кажется существенным для них сосредоточиться на контенте, который является полезным и просветительским для пользователей, хотя не все издатели попадают в эту категорию, так как некоторые просто сообщают новости, например, ‘Такой-то сделал то-то там.’

Подобный тип новостей можно найти на множестве веб-сайтов, что означает: если вы перестанете создавать такой контент, поисковые системы вроде Google и различные языковые модели (LLM) найдут аналогичный материал примерно в ста различных формах. Это не тот вид качественного контента, к которому мы стремимся.

В отличие от этого, другой материал предоставляет детальный анализ сценариев или событий, предлагая такие идеи, как «Вот обзор поведения рынка вчера. Вот некоторые действия, которые вы могли бы рассмотреть.»

Вместо того чтобы сосредотачиваться исключительно на репортажах новостей, я считаю, что создание уникального и ценного контента будет выделяться больше. Хотя освещение событий остаётся важным, изобилие оригинальных и скопированных статей может перенасытить рынок, делая отличительный контент более заметным.

Если Google и подобные модели обучения языкам указывают на необходимость высококачественного контента, важно понимать, что создание и распространение такого контента не являются дешёвыми. Это включает в себя производство контента, его освещение в СМИ и сопутствующие мероприятия.

Похоже, разумным подходом может быть создание системы, при которой данные платформы компенсируют издателей не только за изначально предоставленный контент, но и за контент, потреблённый пользователями и используемый в моделях обучения платформ.

Первоначально Google предлагал сделку: они будут показывать один-два фрагмента вашей статьи, а взамен отправят трафик на ваш сайт для возможной монетизации. Однако сейчас эта договоренность больше не работает так, как раньше.

В своей работе в качестве специалиста по цифровому маркетингу я часто сталкивался с мнением: «Не завышай ожидания от Google». Однако за последние два десятилетия, кажется, существовало неявное соглашение между всеми нами — своего рода контракт, если можно так выразиться — о том, как мы будем взаимодействовать с Google. Это контекст, из которого я формирую стратегии SEO и тактики цифрового маркетинга.

Так что да, именно туда мы должны идти.

Этическая дискуссия вокруг LLM и контента издательств

Джон (Эксперт по SEO): Передвижение в такой ситуации может оказаться трудным делом, но я полностью согласен с важностью первоклассного контента с точки зрения SEO.

В SEJ мы больше концентрируемся на создании высококачественных авторских материалов по лидерству и инновациям вместо того, чтобы просто публиковать статьи, основанные на текущих событиях. Мы вкладываем значительные ресурсы в разработку этих экспертных колонок.

Однако концепция LLM кажется повторяющейся; по сути они основываются на труде других без добавления значительных новых идей. Эта тема вероятно вызовет дебаты в следующем году, делая интересным наблюдение за ее развитием. Тем не менее, это более широкая тема, требующая отдельного рассмотрения позднее.

Как SEO эксперт, один аспект моей работы, который меня восхищает, — это исследование сферы отслеживания LLM (links leading machines), то есть ссылок, ведущих к машинам. В цифровом пространстве, по которому я путешествую, я всегда в поисках новых упоминаний, цитирований и даже реферальных переходов, созданных системами ИИ. Этот процесс не только помогает мне оптимизировать стратегии SEO, но также предоставляет ценные сведения о растущем влиянии искусственного интеллекта на наш онлайн-мир.

Джон: Один из аспектов моей работы включает регулярные встречи с издателями — обычно от 10 до 15 раз в неделю.

Взаимодействуя с издателями и будучи информированным о текущих событиях в их редакциях — понимая их проблемы, области для улучшения и т.д., мы усиливаем свои возможности, эффективно формируя наш стратегический план или направление.

Мы следили за обзором ИИ для NewzDash и рады объявить о выпуске этой новой функции в течение следующих двух месяцев!

Проще говоря, подумайте обо всех ключевых словах или терминах, которые вы отслеживаете, включая названия ваших статей и их идеальные поисковые запросы. Затем мы сообщим вам: ‘Для этого ключевого слова доступен AI-обзор’, а также дадим оценку его видимости и потенциальному снижению позиций в рейтинге.

Для тем или категорий, которые вы часто освещаете, например новостей об iPhone, стоит учесть, что рынок уже перенасыщен обзорами искусственного интеллекта (AI). Это значит, что при публикации материала о предстоящем запуске нового iPhone, такого как iPhone 16, хотя ваш контент может быть релевантен и ценен, он скорее всего будет затмеваться обилием статей с обзорами AI. В результате это может снизить вашу видимость.

После этого мы стремимся расширить наш охват и включить другие Большие Языковые Модели (LLM). В частности, планируем отслеживать упоминания, запросы, цитаты и ссылки в рамках ChatGPT, ведущего LLM-влиятеля, а также Перплексити и других крупных моделей.

Как эксперт по поисковой оптимизации (SEO), я твердо уверен в необходимости глубокого понимания текущего ландшафта и трендов, после чего разрабатываю индивидуальную стратегию, соответствующую моей конкретной нише или области контента.

Шелли: В настоящее время одной из главных препятствий, с которыми сталкиваются издатели при работе с SEO, является необходимость оставаться хорошо информированными и определять источник рефералов, генерируемых ИИ-трафиком и подобными источниками. Эта тема также вызывает мой интерес.

Джон, мне было приятно общаться с вами сегодня, и я очень ценю ваши мнения. Жду встречи лично на одном из ваших собраний в ближайшее время.

Джон: Огромное спасибо! Было очень приятно, благодарю за приглашение.

Спасибо Джону Шехата за то, что он был гостем в шоу IMHO.

Примечание: это было снято до Google I/O и объявления о запуске режима ИИ в США.

Смотрите также

2025-05-29 15:11

Патент Google на распараллеливание запросов: тематический поиск

В декабре 2024 года патент поданный Google под названием «Thematic Search«, кажется, сильно соответствует методу Query Fan-Out используемому в их режиме AI. Этот патент раскрывает механизм генерации ответов режимом AI и предлагает инновационные подходы к стратегии контента, которые могут стоить рассмотрения.

В патенте описывается система, которая группирует релевантные результаты поиска по запросу в отдельные категории или как они их называют, ‘темы’. Каждая категория включает краткое объяснение, позволяя пользователям понять решения на свои запросы без необходимости посещать несколько веб-сайтов, просто ознакомившись с обобщениями.

Данный патент описывает передовую систему для всеобъемлющих исследований, особенно для сложных или многогранных запросов. Отличительная особенность изобретения — способность самостоятельно определять ключевые темы на основе обычных поисковых результатов и использовать искусственный интеллект для создания кратких, информативных сводок по каждой теме. Эти сводки извлекаются не только из содержания, но и из контекста самих поисковых результатов.

Тематическая поисковая система

Тематические области или предметы являются основополагающей идеей, восходящей к начальным стадиям инструментов для веб-поиска, которые привлекли моё внимание и заставили сохранить этот патент несколько месяцев назад.

Вот краткое изложение того, что это делает:

  • Патент ссылается на его использование в контексте большой языковой модели и генератора резюме.
  • Это также относится к тематическому поисковому движку, который получает запрос на поиск и затем передает его в другой поисковый движок.
  • Тематический поисковик берет результаты поиска и организует их по темам.
  • В патенте описывается система, которая взаимодействует с традиционной поисковой системой и использует большую языковую модель для создания сводок тематически группированных результатов поиска.
  • Патент описывает, что единственный запрос может приводить к множественным запросам на основе «подтем»

Сравнение Распределения Запросов И Тематического Поиска

Говоря простыми словами, система, описанная в исходном документе, следует тем же принципам, что объясняет документация от Google относительно методологии распределения запросов (Query Fan-Out).

В определенных ситуациях при вводе поискового запроса типа «142-2», тематическая поисковая система вроде 120 может выдавать тематическую информацию из некоторых результатов поиска. Например, данная тематическая поисковая система 120 могла бы извлечь результаты поиска и создать более конкретные темы или подтемы (например, «район A», «район B», «район C») на основе релевантных документов внутри этих результатов поиска. На странице поиска 160 могут быть отображены подтемы темы 130a и/или тематические результаты поиска 119 по поисковому запросу 142-2. Процесс может продолжаться: выборка подтемы темы 130a могла бы побудить тематическую поисковую систему 120 собрать еще один набор результатов поиска от поисковой системы 104 и создать еще более специфические темы или суб-подтемы внутри темы 130a из этих новых результатов, и так далее.

Описание системы в патенте кажется очень схожим с объяснением метода расширения запросов от Google, особенно в подходе к исследованию связанных тем путём создания новых запросов вокруг конкретных тем.

Генератор резюме

Summarizer является частью системы тематического поиска, созданной специально для создания кратких обобщений по каждой теме на основе результатов поиска.

Так это работает:

  • Генерация сводки иногда реализуется с помощью большой языковой модели, обученной создавать оригинальный текст.
  • Генератор резюме использует один или несколько отрывков из результатов поиска, сгруппированных по конкретной теме.
  • Он также может использовать контекстную информацию из названий, метаданных и окружающих связанных отрывков текста для повышения качества сводки.
  • Генератор резюме может быть активирован при подаче пользователем поискового запроса или при инициализации тематического поисковика.

В патенте не уточняются детали «инициализации» тематического поискового движка; это может быть связано с предположением, что процесс является самоочевидным и относится к начальной стадии работы, когда движок готовится обрабатывать запрос пользователя.

Результаты запроса сгруппированы по теме вместо традиционного ранжирования

В некоторых случаях, продемонстрированных в патенте, обычные результаты поиска заменяются на категоризированные темы и автоматические обзоры. Это изменение в поиске, известное как тематический поиск, изменяет отображаемое содержание и связи с пользователями. Например, вопрос, часто оптимизированный издателями или специалистами по SEO, может служить отправной точкой для информационной экспедиции пользователя. Результаты тематического поиска могут направлять пользователя через исследование подтем, связанных с оригинальным запросом, а веб-страница, которая в конечном итоге привлечет клик, возможно, не будет первой по рангу для первоначального запроса, но окажется более подходящей для соответствующего смежного запроса.

  • Темы отображаются на странице результатов поиска, и в некоторых случаях результаты поиска (или их часть) организованы согласно множественности тем. Отображение темы может включать показ фразы этой темы.
  • В некоторых примерах поисковая система по тематикам может ранжировать темы на основе их значимости и/или релевантности к поисковому запросу.
  • Страница результатов поиска может организовать результаты поиска (или их часть) согласно темам (например, под темой ‘стоимость жизни’, идентифицируя те результаты поиска, которые относятся к теме ‘стоимости жизни’).
  • Темы и
    /или результаты поиска, организованные по темам с помощью тематического движка поиска, могут отображаться на странице результатов поиска различными способами, например в виде списков, карточек или объектов пользовательского интерфейса (UI), горизонтальной карусели, вертикальной карусели и т.д.
  • Результаты поиска, организованные по темам, могут называться тематическими результатами поиска. В некоторых случаях темы и
    /или результаты поиска, упорядоченные по темам, отображаются на странице результатов поиска вместе с обычными результатами (например, нормальными результатами поиска) от поисковой системы.
  • В некоторых примерах темы и/или организованные по темам результаты поиска отображаются в части страницы результатов поиска, которая отделена от поисковых результатов, полученных поисковой системой.

Содержание из нескольких источников объединено

Подготовленные искусственным интеллектом резюме составлены из различных онлайн источников и классифицированы по темам. Это усложняет процесс указания ссылок, поддержания видимости и оценки посещаемости веб-сайтов.

В данной патентной цитате «неструктурированные данные» означают информацию, найденную на веб-сайте.

Чтобы проиллюстрировать это, тематическая поисковая система может извлекать темы из неорганизованных данных путем непосредственного анализа содержимого соответствующих документов. Затем она классифицирует результаты поиска по этим идентифицированным темам.

B ответ на вопрос «Переезд в Денвер», такая поисковая система могла бы показать релевантные результаты (например, информативные документы), связанные с конкретным запросом.

Как профессионал в области цифрового маркетинга, я мог бы объяснить это так: при использовании тематической поисковой системы она будет выбирать группу соответствующих документов (как правило, X лучших результатов поиска) на основе запроса. Затем она создает множество тем из содержания выбранных документов. Например, темы могут включать «районы проживания», «стоимость жизни», «что делать в городе» или даже «за и против переезда». Тема может быть фразой, созданной ИИ моделью, которая обобщает общую тему, встречающуюся во всех предоставленных документах.

B некоторых случаях тематическая поисковая система определяет ключевые слова внутри каждого документа (например, из результатов поиска) и связывает их с похожими ключевыми словами в других документах для создания тем.

Контент с исходных страниц связан

Как SEO-специалист, я мог бы перефразировать это следующим образом:

B некоторых случаях отрывок 145 может представлять собой краткую выдержку из документа 126 или его метаданных. В таких ситуациях отрывок 145 возможно содержит релевантный раздел документа 126, относящийся к теме 130. Иногда поисковый результат 119, связанный с этой темой, включает в себя отрывок 145 вместе со сводным описанием 166, созданным языковой моделью 128 и помещенным в кластер 172 для удобства организации и понимания.

Влияние взаимодействия пользователя на представление

Ранее было сказано, что тематическая поисковая система не предоставляет список документов на основе поискового запроса в порядке релевантности. Вместо этого она собирает данные из различных тем, относящихся к первоначальному поисковому запросу. Взаимодействие пользователя с этими AI-сгенерированными резюме влияет на то, какие вебсайты будут посещены.

Подтемы, созданные автоматически, могут предложить разнообразные пути в процессе изучения пользователем знаний, начиная с его изначального поискового вопроса.

Аннотация использует метаданные издателя

Проще говоря, создатель резюме учитывает заголовки, дополнительную информацию (метаданные) и контекст из близлежащего текста при создании сводок. Следовательно, организованное содержание может влиять на то, как эти сводки формируются.

Ниже приводится то, что говорится в патенте; я добавил пункты списка, чтобы упростить понимание:

  • Генератор кратких версий текста может получить отрывок в качестве входных данных и выдать краткое описание для введенного отрывка.
  • В некоторых примерах генератор резюме 164 получает в качестве входных данных отрывок текста 145 и контекстную информацию, а на выходе выдает краткое описание 166 для отрывка текста 145.
  • В некоторых примерах контекстная информация может включать заголовок реагирующего документа 126 и/или метаданные, связанные с реагирующим документом 126.
  • В некоторых примерах контекстуальная информация может включать один или несколько соседних абзацев (например, соседние параграфы).
  • В некоторых примерах контекстная информация может включать краткое описание одного или нескольких соседних абзацев (например, смежных абзацев).
  • В некоторых примерах контекстная информация может включать все остальные фрагменты текста на том же ответном документе. Например, генератор резюме может принимать фрагмент текста и другие фрагменты текста (например, все остальные фрагменты) с того же ответного документа (и в некоторых случаях другую контекстную информацию) в качестве входных данных и выводить краткое описание для фрагмента текста.

Тематический поиск: Последствия для контента и SEO

Есть два способа, которыми заканчивается режим AI для издателя.

  1. Поскольку пользователи могут получать ответы из тематических сводок или выпадющих списков, поведение без клика (zero-click) вероятно увеличится, снижая трафик от традиционных ссылок.
  2. Или же это может означать, что веб-страница, которая предоставляет конец пути пользователя по информационному запросу для данного запроса, получает клик.

Кажется, нам стоит перенести фокус с ранжирования ключевых слов на понимание основного вопроса, который задает поисковик, а затем предоставлять полные ответы и предвидеть связанные вопросы для предоставления более полного ответа в рамках одной веб-страницы или создания дополнительных страниц по мере необходимости, чтобы лучше удовлетворить информационные потребности пользователя.

Вы можете прочитать патент здесь:

Тематический поиск (PDF)

Прочтите документацию Google об режиме AI (PDF)

Смотрите также

2025-05-29 13:40

Как автоматизировать кластеризацию ключевых слов SEO по поисковым намерениям с помощью Python

Целью поиска является тема с множеством аспектов. Например, её можно исследовать используя продвинутые методы машинного обучения, такие как глубокое обучение, которое помогает классифицировать поисковые запросы на основе их значения; или же использовать методы обработки естественного языка (NLP) для анализа заголовков страниц выдачи поисковых систем (SERP). Кроме того, может применяться группировка результатов на основе семантической близости, при этом каждый метод предлагает свой набор преимуществ.

Помимо простого понимания преимуществ интерпретации поискового намерения, мы располагаем различными стратегиями как для крупномасштабного применения, так и для автоматизации.

Так почему же нам нужна ещё одна статья об автоматизации намерений поиска?

Намерение поиска становится всё более важным сейчас, когда появился поиск на базе искусственного интеллекта.

Во времена традиционных поисковых систем, где доминировали десять синих ссылок, основной задачей было предоставление большего количества результатов. Но когда речь идет об AI-управляемых технологиях поиска, я стремлюсь минимизировать вычислительные затраты на операцию (FLOPs), чтобы гарантировать бесперебойное и эффективное обслуживание.

В SERP по-прежнему содержатся лучшие идеи относительно поисковых намерений.

Пока что методы состоят из двух подходов. Во-первых, вы собираете весь текст заголовков наиболее высоко ранжированного контента по определенному ключевому слову и затем используете эти данные для обучения и валидации модели нейронной сети, которую вам нужно спроектировать и протестировать. Второй вариант — это использование обработки естественного языка (NLP) для группировки ключевых слов.

Если у вас нет времени или знаний, чтобы создать свой собственный искусственный интеллект или использовать API от OpenAI?

Хотя многие эксперты по SEO хвалят косинусное сходство как инструмент для определения границ тем в таксономии и архитектуре веб-сайта, я продолжаю считать, что группировка результатов поиска на основе их выдачи SERP (страницы результатов поисковой системы) предлагает значительно лучший подход.

ИИ фокусируется на оптимизации результатов поиска поисковых систем (SERP), по уважительной причине, так как он моделирован вокруг паттернов поведения пользователей.

Альтернативный подход использует встроенные возможности искусственного интеллекта Google для автоматического выполнения задач, обходя необходимость ручного сбора содержимого страниц результатов поиска (SERP) и создания собственной модели ИИ.

Проще говоря, когда Google отображает сайты в ответ на запрос поиска, это происходит исходя из того, насколько вероятно содержание сайта соответствует заданному вопросу. Если два поисковых запроса имеют одинаковую цель, результаты поиска скорее всего будут очень похожи.

В течение продолжительного времени многие SEO-специалисты исследовали страницы результатов поиска (SERP) по ключевым словам для определения общих поисковых намерений как способ быть в курсе основных обновлений алгоритмов поисковиков. Иными словами, они занимались этим достаточно долго, чтобы адаптироваться к изменениям в алгоритмах. Таким образом, эта практика не является совершенно новой и инновационной.

Основное преимущество заключается в автоматизации и расширении этого процесса сравнения, обеспечивающего скорость и повышенную точность.

Как Кластеризовать Ключевые Слова по Запросам Пользователей в Масштабе с Помощью Python (с Кодом)

Предполагая, что у вас есть результаты поисковых запросов в формате CSV-файла, давайте импортируем их в вашу записную книжку Python.

1. Импортируйте список в ваш блокнот на Python

import pandas as pd
import numpy as np

serps_input = pd.read_csv('data/sej_serps_input.csv')
del serps_input['Unnamed: 0']
serps_input

Ниже представлен файл SERP, теперь импортированный в DataFrame панды.

Отфильтруйте данные для первой страницы

Мы хотим сравнить результаты первой страницы каждой поисковой выдачи по ключевым словам.

Как опытный вебмастер, я предпочитаю разбивать наш датафрейм на более мелкие и управляемые DataFrame по ключевым словам. Таким образом, можно эффективно применять функцию фильтрации по каждому ключевому слову отдельно. После фильтрации эти маленькие DataFrame затем плавно объединяются обратно в один общий DataFrame, гарантируя эффективное таргетирование ключевых слов.

# Split 
serps_grpby_keyword = serps_input.groupby("keyword")
k_urls = 15

# Apply Combine
def filter_k_urls(group_df):
    filtered_df = group_df.loc[group_df['url'].notnull()]
    filtered_df = filtered_df.loc[filtered_df['rank'] <= k_urls]
    return filtered_df
filtered_serps = serps_grpby_keyword.apply(filter_k_urls)

# Combine
## Add prefix to column names
#normed = normed.add_prefix('normed_')

# Concatenate with initial data frame
filtered_serps_df = pd.concat([filtered_serps],axis=0)
del filtered_serps_df['keyword']
filtered_serps_df = filtered_serps_df.reset_index()
del filtered_serps_df['level_1']
filtered_serps_df

Преобразуйте URL рейтинга в строку

Поскольку URL-адреса из результатов поисковых систем превосходят количество уникальных ключевых слов, необходимо сократить эти URL-ы до краткого однострочного представления поисковой выдачи по ключевому слову.

Вот как:


# convert results to strings using Split Apply Combine 
filtserps_grpby_keyword = filtered_serps_df.groupby("keyword")

def string_serps(df): 
   df['serp_string'] = ''.join(df['url'])
   return df # Combine strung_serps = filtserps_grpby_keyword.apply(string_serps) 

# Concatenate with initial data frame and clean 
strung_serps = pd.concat([strung_serps],axis=0) 
strung_serps = strung_serps[['keyword', 'serp_string']]#.head(30) 
strung_serps = strung_serps.drop_duplicates() 
strung_serps

Ниже показана страница результатов поиска (SERP), сжатая в одну строку для каждого ключевого слова.

Сравните расстояние SERP

Для выполнения сравнения нам теперь нужны все комбинации ключевых слов SERP с другими парами:


# align serps
def serps_align(k, df):
    prime_df = df.loc[df.keyword == k]
    prime_df = prime_df.rename(columns = {"serp_string" : "serp_string_a", 'keyword': 'keyword_a'})
    comp_df = df.loc[df.keyword != k].reset_index(drop=True)
    prime_df = prime_df.loc[prime_df.index.repeat(len(comp_df.index))].reset_index(drop=True)
    prime_df = pd.concat([prime_df, comp_df], axis=1)
    prime_df = prime_df.rename(columns = {"serp_string" : "serp_string_b", 'keyword': 'keyword_b', "serp_string_a" : "serp_string", 'keyword_a': 'keyword'})
    return prime_df

columns = ['keyword', 'serp_string', 'keyword_b', 'serp_string_b']
matched_serps = pd.DataFrame(columns=columns)
matched_serps = matched_serps.fillna(0)
queries = strung_serps.keyword.to_list()

for q in queries:
    temp_df = serps_align(q, strung_serps)
    matched_serps = matched_serps.append(temp_df)

matched_serps

Информация, представленная в данном контексте, включает все возможные комбинации ключевых слов и их страницы результатов поисковых систем (SERP), что позволяет провести прямое сравнение строк SERP.

Функция serp_compare оценивает схожесть в расположении и внешнем виде веб-сайтов на страницах результатов поисковых систем (SERP).


import py_stringmatching as sm
ws_tok = sm.WhitespaceTokenizer()

# Only compare the top k_urls results 
def serps_similarity(serps_str1, serps_str2, k=15):
    denom = k+1
    norm = sum([2*(1/i - 1.0/(denom)) for i in range(1, denom)])
    #use to tokenize the URLs
    ws_tok = sm.WhitespaceTokenizer()
    #keep only first k URLs
    serps_1 = ws_tok.tokenize(serps_str1)[:k]
    serps_2 = ws_tok.tokenize(serps_str2)[:k]
    #get positions of matches 
    match = lambda a, b: [b.index(x)+1 if x in b else None for x in a]
    #positions intersections of form [(pos_1, pos_2), ...]
    pos_intersections = [(i+1,j) for i,j in enumerate(match(serps_1, serps_2)) if j is not None] 
    pos_in1_not_in2 = [i+1 for i,j in enumerate(match(serps_1, serps_2)) if j is None]
    pos_in2_not_in1 = [i+1 for i,j in enumerate(match(serps_2, serps_1)) if j is None]
    
    a_sum = sum([abs(1/i -1/j) for i,j in pos_intersections])
    b_sum = sum([abs(1/i -1/denom) for i in pos_in1_not_in2])
    c_sum = sum([abs(1/i -1/denom) for i in pos_in2_not_in1])

    intent_prime = a_sum + b_sum + c_sum
    intent_dist = 1 - (intent_prime/norm)
    return intent_dist

# Apply the function
matched_serps['si_simi'] = matched_serps.apply(lambda x: serps_similarity(x.serp_string, x.serp_string_b), axis=1)

# This is what you get
matched_serps[['keyword', 'keyword_b', 'si_simi']]

Теперь, когда сравнительный анализ завершен, можно начать кластеризацию ключевых слов.

Мы будем обрабатывать любые ключевые слова, которые имеют взвешенную схожесть не менее 40%.


# group keywords by search intent
simi_lim = 0.4

# join search volume
keysv_df = serps_input[['keyword', 'search_volume']].drop_duplicates()
keysv_df.head()

# append topic vols
keywords_crossed_vols = serps_compared.merge(keysv_df, on = 'keyword', how = 'left')
keywords_crossed_vols = keywords_crossed_vols.rename(columns = {'keyword': 'topic', 'keyword_b': 'keyword',
                                                                'search_volume': 'topic_volume'})

# sim si_simi
keywords_crossed_vols.sort_values('topic_volume', ascending = False)

# strip NAN
keywords_filtered_nonnan = keywords_crossed_vols.dropna()
keywords_filtered_nonnan

We now have the potential topic name, keywords SERP similarity, and search volumes of each.

Заметьте, что ключевые слова keyword и keyword_b были переименованы в тему (topic) и ключевое слово (keyword), соответственно.

Теперь мы будем перебирать столбцы в DataFrame, используя технику лямбда-функций.

Использование лямбда-подхода является упрощённым методом для итерации по строкам pandas DataFrame, так как он преобразует каждую строку в список вместо непосредственного использования функции .iterrows().

Вот идет:


queries_in_df = list(set(matched_serps['keyword'].to_list()))
topic_groups = {}

def dict_key(dicto, keyo):
    return keyo in dicto

def dict_values(dicto, vala):
    return any(vala in val for val in dicto.values())

def what_key(dicto, vala):
    for k, v in dicto.items():
            if vala in v:
                return k

def find_topics(si, keyw, topc):
    if (si >= simi_lim):

        if (not dict_key(sim_topic_groups, keyw)) and (not dict_key(sim_topic_groups, topc)): 

            if (not dict_values(sim_topic_groups, keyw)) and (not dict_values(sim_topic_groups, topc)): 
                sim_topic_groups[keyw] = [keyw] 
                sim_topic_groups[keyw] = [topc] 
                if dict_key(non_sim_topic_groups, keyw):
                    non_sim_topic_groups.pop(keyw)
                if dict_key(non_sim_topic_groups, topc): 
                    non_sim_topic_groups.pop(topc)
            if (dict_values(sim_topic_groups, keyw)) and (not dict_values(sim_topic_groups, topc)): 
                d_key = what_key(sim_topic_groups, keyw)
                sim_topic_groups[d_key].append(topc)
                if dict_key(non_sim_topic_groups, keyw):
                    non_sim_topic_groups.pop(keyw)
                if dict_key(non_sim_topic_groups, topc): 
                    non_sim_topic_groups.pop(topc)
            if (not dict_values(sim_topic_groups, keyw)) and (dict_values(sim_topic_groups, topc)): 
                d_key = what_key(sim_topic_groups, topc)
                sim_topic_groups[d_key].append(keyw)
                if dict_key(non_sim_topic_groups, keyw):
                    non_sim_topic_groups.pop(keyw)
                if dict_key(non_sim_topic_groups, topc): 
                    non_sim_topic_groups.pop(topc) 

        elif (keyw in sim_topic_groups) and (not topc in sim_topic_groups): 
            sim_topic_groups[keyw].append(topc)
            sim_topic_groups[keyw].append(keyw)
            if keyw in non_sim_topic_groups:
                non_sim_topic_groups.pop(keyw)
            if topc in non_sim_topic_groups: 
                non_sim_topic_groups.pop(topc)
        elif (not keyw in sim_topic_groups) and (topc in sim_topic_groups):
            sim_topic_groups[topc].append(keyw)
            sim_topic_groups[topc].append(topc)
            if keyw in non_sim_topic_groups:
                non_sim_topic_groups.pop(keyw)
            if topc in non_sim_topic_groups: 
                non_sim_topic_groups.pop(topc)
        elif (keyw in sim_topic_groups) and (topc in sim_topic_groups):
            if len(sim_topic_groups[keyw]) > len(sim_topic_groups[topc]):
                sim_topic_groups[keyw].append(topc) 
                [sim_topic_groups[keyw].append(x) for x in sim_topic_groups.get(topc)] 
                sim_topic_groups.pop(topc)

        elif len(sim_topic_groups[keyw]) < len(sim_topic_groups[topc]):
            sim_topic_groups[topc].append(keyw) 
            [sim_topic_groups[topc].append(x) for x in sim_topic_groups.get(keyw)]
            sim_topic_groups.pop(keyw) 
        elif len(sim_topic_groups[keyw]) == len(sim_topic_groups[topc]):
            if sim_topic_groups[keyw] == topc and sim_topic_groups[topc] == keyw:
            sim_topic_groups.pop(keyw)

    elif si < simi_lim:
  
        if (not dict_key(non_sim_topic_groups, keyw)) and (not dict_key(sim_topic_groups, keyw)) and (not dict_values(sim_topic_groups,keyw)): 
            non_sim_topic_groups[keyw] = [keyw]
        if (not dict_key(non_sim_topic_groups, topc)) and (not dict_key(sim_topic_groups, topc)) and (not dict_values(sim_topic_groups,topc)): 
            non_sim_topic_groups[topc] = [topc]

Словарь ниже сортирует ключевые слова согласно их целям поиска и присваивает им номера:

{1: ['fixed rate isa',
  'isa rates',
  'isa interest rates',
  'best isa rates',
  'cash isa',
  'cash isa rates'],
 2: ['child savings account', 'kids savings account'],
 3: ['savings account',
  'savings account interest rate',
  'savings rates',
  'fixed rate savings',
  'easy access savings',
  'fixed rate bonds',
  'online savings account',
  'easy access savings account',
  'savings accounts uk'],
 4: ['isa account', 'isa', 'isa savings']}

Давайте добавим это в DataFrame.


topic_groups_lst = []

for k, l in topic_groups_numbered.items():
    for v in l:
        topic_groups_lst.append([k, v])

topic_groups_dictdf = pd.DataFrame(topic_groups_lst, columns=['topic_group_no', 'keyword'])
                                
topic_groups_dictdf

Группированные поисковые запросы выше представляют собой разумное представление ключевых терминов в них, что обычно является задачей специалиста по SEO.

Подход, даже при ограниченном наборе ключевых слов, ясно адаптирован к обработке значительно больших наборов, потенциально десятков тысяч или даже более.

Активация выходов для улучшения вашего поиска

Абсолютно верно, я обнаружил, что более глубокое изучение области нейронных сетей может значительно повысить точность кластеризации контента. Используя эти продвинутые технологии, мы можем улучшить процесс обработки ранжированного содержания, приводя к более точным кластерам и даже более умным названиям групп. На самом деле, некоторые коммерческие решения уже используют этот подход.

Пока что с этим результатом вы можете:

  • Добавьте это в свои системы анализа данных для SEO, чтобы сделать отчеты о трендах и SEO более значимыми.
  • Стройте более эффективные платные поисковые кампании, организуя свои аккаунты в Google Ads по интенту поиска (поиска) для повышения оценки качества.
  • Объедините повторяющиеся URL поиска в экосистеме электронной коммерции.
  • Структурируйте таксономию сайта электронной коммерции в соответствии с намерениями поиска вместо обычного каталога товаров.

Конечно, возможно есть другие приложения, которые я не упомянул — пожалуйста, поделитесь значимыми приложениями, о которых вы думаете, что я их пропустил.

Действительно, процесс исследования ключевых слов SEO стал более эффективным, точным и быстрым для Вас!

Загрузите полный код здесь для личного использования.

Смотрите также

2025-05-29 04:12

Google исправляет ошибку атрибуции трафика режима AI

Google недавно исправил проблему, при которой поисковые запросы, сделанные через режим искусственного интеллекта (AI Mode), были ошибочно отнесены к категории ‘прямого трафика’, вместо того чтобы отображаться как ‘органический трафик’ в Google Analytics. Теперь правильные данные будут отражаться для поискового трафика режима AI.

Проблемы возникли на прошлой неделе, когда Google начал использовать специальный код (rel=’noopener noreferrer’) в ссылках своих поисковых результатов режима AI. Это изменение привело к неточному отслеживанию трафика Google Analytics, приписанному сайтам как происходившему из других источников, а не от поисковых запросов Google.

По словам Алеиды Солис, основателя компании Orainti, а также других экспертов в области SEO, проблема была успешно решена.

Проблема атрибуции

Мага Сикора, специалист по SEO с акцентом на ИИ, первоначально заметила эту проблему и предупредила коллег-маркетологов о ней.

При анализе данных в вашем Google Analytics (GA) помните, что трафик из режима ИИ Google будет помечен как «прямой», вместо «органического». Это связано с тем, что Google добавляет тег ‘rel=noopener noreferrer’ к ссылкам, генерируемым их искусственным интеллектом, что мешает GA отслеживать их как органический поисковый трафик.

Google признает ошибку

Джон Мюллер, представитель Google, быстро ответил на это. Он пояснил, что проблема могла возникнуть из-за ошибки со стороны Google.

Мои предположения таковы, что это будет исправлено; похоже на баг с нашей стороны.

Дополнительно, Мюллер уточнил, что консоль поиска пока не отображает данные из режима ИИ, однако эта информация должна стать доступной в ближайшем будущем.

Он добавил:

Мы вносим изменения в нашу документацию, чтобы указать на то, что режим ИИ скоро будет запущен.

Оперативное разрешение и текущий статус

Google исправил проблему в течение нескольких дней.

Солис подтвердил исправление:

Я не вижу ‘norereferee’ в ссылках режима искусственного интеллекта от Google.

В настоящее время она проверяет правильность отметки данных, отображаемых в режиме искусственного интеллекта (AI Mode) её аналитических инструментов, как ‘органический’ трафик, а не как ‘прямой’.

Влияние на SEO-отчетность

В течение нескольких дней могли возникнуть проблемы, которые повлияли на статистику посещаемости вашего сайта. Если ваш сайт получал трафик в режиме AI Mode за это время, то некоторые визиты, классифицированные как ‘прямой’, могут быть фактически приписаны органическому поисковому трафику.

Эта неправильная классификация могла бы:

  • Неправильный трекинг конверсий
  • Повлияло на бюджетные решения
  • Сделал так, что показатели SEO выглядели хуже, чем они были на самом деле.
  • Скрытый истинный эффект режима AI на вашем сайте

Что делать сейчас?

Вот ваш план действий:

  1. Проверьте данные трафика за последнюю неделю – Ищите необычные всплески прямого трафика
  2. Зафиксируйте проблему – отметьте даты воздействия для будущего использования
  3. Настройте отчетность — Рассмотрите возможность добавления замечаний в клиентские отчеты относительно временной ошибки

Ответ Google свидетельствует о понимании важности точных данных для маркетологов.

Смотрите также

2025-05-28 22:08

SEO все еще актуально в эпоху искусственного интеллекта. Новое исследование говорит, что да.

Недавнее исследование, изучающее 25000 пользовательских запросов, показало, что приблизительно четверть (25%) ответов, сгенерированных искусственным интеллектом, включают ссылки на веб-сайты, занимающие первое место в результатах поиска Google.

Представляемая информация показывает, что традиционные методы поисковой оптимизации (SEO) по-прежнему важны, вопреки утверждениям о том, что они устарели из-за прогресса в искусственном интеллекте (ИИ).

Томаш Рудзки, один из основателей ZipTi, изучил настоящие поисковые запросы, связанные с ChatGPT, Perplexity и обзорами искусственного интеллекта от Google. Его открытия противоречат общепринятому мнению о том, что ИИ делает традиционную оптимизацию поисковых систем (SEO) устаревшей.

Топ-рейтинги переводятся в видимость ИИ

Информация демонстрирует явную тенденцию: если ваш сайт занимает первое место в результатах поиска Google, существует около 25% вероятность того, что он будет представлен среди результатов искусственного интеллекта поисковой системы. Понижение вашего рейтинга соответствует уменьшению вероятности появления.

Рудзкий заявил:

Как профессионал в области цифрового маркетинга, могу с уверенностью сказать, что чем выше мой сайт располагается в первой десятке результатов поиска Google, тем больше шансов на то, что он будет показан при использовании AI-управляемых поисковых запросов на различных платформах. Это не просто предположение; это подтверждено реальными запросами реальных пользователей.

Как поисковые системы на основе ИИ выбирают источники

Исследование описывает функционирование ИИ-поиска, опираясь на данные антимонопольных разбирательств Google. По сути, этот процесс состоит из трех ключевых этапов: 1. Обработка запроса: На этом этапе поисковая система принимает запрос пользователя и обрабатывает его для понимания того, какую информацию пользователь ищет. 2. Ранжирование: После обработки запроса система извлекает релевантные данные из своего индекса и ранжирует их по степени соответствия запросу пользователя. 3. Отображение: Затем пользователю представляются топ-результаты, предлагая список возможных решений или ответов на запрос.

Как опытный вебмастер, скажу так: В первой фазе моего процесса я позволяю системам ИИ просеивать огромный океан информации, чтобы выявить наилучший контент по каждому поисковому запросу. Обычно они отдают предпочтение страницам с более высоким рейтингом в Google.

Шаг 2: Извлечение информации: ИИ собирает важные детали с веб-страниц наивысшего рейтинга, сосредотачиваясь на контенте, который напрямую связан с запросом пользователя.

Шаг 3: Обработка с помощью ИИ
На данном этапе искусственный интеллект обрабатывает предоставленные данные для генерации краткого ответа, используя модель Gemini от Google.

Согласно внутренним испытаниям Google, критически важно использовать высококачественный контент высшего уровня, так как это значительно повышает точность ответов, генерируемых ИИ. Соответственно, значимость традиционных рейтингов остается существенной по этой причине.

Эффект Распределения Запросов Объяснён

Причина 1: Персонализация

Результаты поиска различаются у пользователей. Страница может занимать высокое место в рейтинге для одного пользователя, но не для другого.

Причина 2: Расщепление запроса

Это наиболее значимый фактор. Согласно документации от Гугла:

Вот что это значит простыми словами:

Когда вы ищете «SEO против SEM», искусственный интеллект незаметно выполняет множество поисковых запросов.

  • Что такое SEO?
  • Объяснение SEO
  • Что такое PP\?C
  • Кроме нескольких других связанных запросов

Веб-страницы, которые отличаются этими дополнительными запросами, все же могут показываться в результатах поиска, даже если они не ранжируются по вашему основному поисковому запросу.

Необходим фундаментальный сдвиг в стратегии контента

Исследование показывает, что мы должны по-другому относиться к контенту.

Проще говоря, традиционный SEO заключался в создании самой информативной страницы. Это включало написание исчерпывающих статей, которые охватывали все аспекты заданной темы всесторонне.

Искусственный интеллект ищет «лучший ответ.» Это означает конкретные и сосредоточенные ответы на точные вопросы.

Анализ отмечает:

Если человек интересуется конкретно о времени работы аккумулятора iPhone 15, то быть топовым результатом в поиске Google не имеет большого значения; ведь у ИИ нет чувств или интересов. Он лишь предоставляет информацию, которая напрямую и точно связана с заданным вопросом.

Маркетологи должны перейти от оптимизации по ключевым словам к ответу на реальные вопросы.

Практические последствия для цифровых маркетологов

Вот что должны делать маркетологи на основе этих выводов:

  • Продолжайте свои SEO усилия: топ-10 позиций напрямую влияют на видимость в AI. Не отказывайтесь от своих стратегий SEO.
  • Перестройте ваш контент: разделите длинные гайды на секции, отвечающие конкретным вопросам.
  • Целевые запросы, связанные с вашим продуктом/услугой: Оптимизируйте под различные варианты ваших ключевых слов.
  • Пишите ясно: системы искусственного интеллекта отдают предпочтение прямым ответам вместо текста, насыщенного ключевыми словами.
  • Отслеживай все: контролируй свою видимость как в традиционных, так и в поисковых результатах искусственного интеллекта.

Влияние на индустрию и будущие соображения

Это исследование приходит как раз вовремя, так как область поиска искусственного интеллекта быстро расширяется. Получая понимание его связи с традиционными системами ранжирования, можно получить конкурентное преимущество.

Из топ-контента только четверть попадает в результаты поиска ИИ. Остальные три четверти не представлены, что может дать маркетологам возможность улучшить свои стратегии соответствующим образом.

Рудски заключает:

Вместо того чтобы концентрироваться на ‘как мне подняться в рейтинге’, попробуйте переосмыслить свою стратегию как ‘как обеспечить более эффективный ответ пользователям с конкретными запросами’. Это мысленное изменение является решающим для успеха в эпоху искусственного интеллекта.

В отраслях, стремительно интегрирующих искусственный интеллект, эти результаты предоставляют прочную основу для мудрых бизнес-стратегий. Вместо того чтобы отказываться от методов SEO, данные подразумевают улучшение и усиление тех подходов, которые уже показывают эффективность.

Смотрите также

2025-05-28 18:09