Google: Скорость базы данных превышает количество страниц для бюджета сканирования

Как специалист по цифровому маркетингу я усвоил, что в большинстве случаев сайты с менее чем миллионом страниц могут расслабиться относительно бюджета краула, однако важно отметить особенности данного сценария. Для сайтов, содержащих более миллиона страниц, управление бюджетом краула становится критически важным для оптимальной производительности и индексации поисковыми системами, такими как Google.

Согласно члену команды Google по отношениям с поисковыми сервисами Гэри Иллесу в недавнем подкасте, не столько количество веб-страниц (то есть их число), сколько быстродействие вашей базы данных действительно влияет на результаты поиска.

Пять лет прошло с тех пор, как Google предложил рекомендации по бюджету краулинга, но советы, которые они дали, остаются актуальными, несмотря на прогресс в веб-технологиях.

Правило Миллиона Страниц Остается Неизменным

На подкасте On the Search Off the Record Иллиес повторил традиционную позицию Google по поводу ограничения бюджета краулинга, когда Мартин Шпитт спросил об этом.

Иллиес заявил:

Я бы сказал, миллион — это нормально.

Это значит, что сайтам с менее чем миллионом страниц не стоит беспокоиться о своем бюджете на сканирование.

Удивительным является тот факт, что несмотря на значительный рост веб-пространства, характеризующийся увеличением использования JavaScript, динамического контента и сложных сайтов, порог Google остается стабильным с 2020 года.

Скорость вашей базы данных имеет значение

Другими словами, Иллье поделился важной информацией: ползанию по веб-страницам больше вредит медленные базы данных, чем их большое количество.

Илльиес объяснил:

Если вы делаете дорогие вызовы базы данных, это будет стоить серверу немало.

Веб-сайт, содержащий полмиллиона страниц и сталкивающийся с медленными запросами к базе данных, может столкнуться с большими проблемами при веб-крауле по сравнению с сайтом с двумя миллионами быстро загружающихся статических страниц.

Говоря проще, важно оценивать качество работы вашей базы данных, не только количество веб-страниц. Сайты с динамическим контентом, сложными запросами или данными в реальном времени должны уделить особое внимание своей скорости и общей производительности.

Настоящий пожиратель ресурсов: индексирование, а не сканирование

Ильяс поделился мнением, которое противоречит тому, во что верят многие специалисты по поисковому продвижению (SEO).

Он сказал:

Как мы сюда попали

В подкасте обсуждалась грандиозность Всемирной паутины, отмечая, что в 1994 году Ворм проиндексировал всего лишь 110,000 веб-страниц, тогда как WebCrwaler сумел обработать ошеломляющие 2 миллиона страниц. Сегодня эти цифры кажутся смешными по сравнению с данными Illyes.

Причина, по которой рубеж в миллион страниц не был превышен, остается постоянной. То, что считалось огромным во время зарождения интернета, теперь считается относительно средним размером. Инфраструктура Google выросла достаточно для того, чтобы справиться с таким объемом без необходимости корректировки ориентиров.

Почему порог остаётся стабильным

Google стремится уменьшить свой поисковый охват, и Ильес объяснил, почему это вызывает трудности.

Он объяснил:

За каждый ваш запрос вы экономите семь байт. Следующий продукт вернет еще восемь.

Постоянный баланс между оптимизацией и добавлением новых функций можно рассматривать как ключевой фактор в поддержании стабильного лимита бюджета краулинга. По мере продвижения системы Google основные принципы, определяющие важность бюджета краулинга, имеют тенденцию оставаться неизменными.

Что вам следует делать сейчас

Исходя из этих соображений, вот что вам следует сосредоточиться на:

Для сайтов с менее чем миллионом страниц придерживайтесь текущего подхода. Сосредоточьтесь на создании высококачественного контента и улучшении пользовательского опыта. Поскольку бюджет для сканирования не является проблемой, вы можете позволить себе больше инвестиций в эти области.

Более крупные сайты: Улучшите эффективность базы данных, так как это ваш новый приоритет. Обзор:

  • Время выполнения запроса
  • эффективность поимки
  • Скорость генерации динамического контента

Основные технические проверки:

  • Производительность запросов к базе данных
  • Время отклика сервера
  • Оптимизация доставки контента
  • Надлежащая реализация кэширования

Заглядывая вперёд

Постоянный совет Google по бюджету сканирования показывает, что определенные основы SEO действительно имеют большое значение, при этом большинство сайтов не требуют дополнительного беспокойства об этом аспекте.

Но когда мы обсуждаем базы данных для более крупных веб-сайтов, фокус не только на количестве страниц. Важно также учитывать эффективность их доставки.

Говоря проще, для специалистов по SEO это означает учитывать эффективность базы данных при проведении технических оценок SEO. Для программистов важно подчеркнуть важность оптимизации запросов и использования эффективных тактик кэширования.

Через пять лет возможно, что барьер в один миллион страниц будет сохраняться. Но сайты, которые сегодня сосредоточены на повышении эффективности своих баз данных, будут готовы к будущим вызовам.

Послушайте полный эпизод подкаста ниже:

https://www.youtube.com/watch?v=iGguggoNZ1E

Смотрите также

2025-05-29 21:09

Гари Иллес из Google предупреждает о создании веб-заторов агентами ИИ.

Инженер из Google предупредил, что системы ИИ и автоматические программы вскоре могут генерировать огромное количество онлайн-активности, потенциально перегружая интернет.

В недавнем подкасте Гэри Иллес из команды поисковых отношений Google шутливо заявил, что даже моя бабушка могла бы запустить краулер.

Предупреждение исходит из последней серии подкаста Google под названием ‘Search Off the Record’.

Агенты ИИ будут нагружать сайты

Иллюс сказал:

Интернет становится всё более загруженным… Важно отметить, что это не выходит за рамки его возможностей… Фактически интернет создан для управления такими высокими объёмами трафика даже без участия человека.

Этот всплеск происходит когда компании начинают использовать искусственный интеллект для таких задач как создание контента, исследование конкурентов, анализ рынков и сбор данных. Каждому инструменту необходимо сканировать веб-сайты для эффективной работы, поэтому ожидается что рост веб-трафика значительно увеличится по мере того как всё больше компаний принимают AI.

Как работает система индексации Google

В подкасте проводится подробное обсуждение структуры, которую использует Google для сканирования веб-страниц. Вместо того чтобы задействовать отдельных сканеров для каждого продукта, Google разработала единую интегрированную систему для этой цели.

Ассортимент услуг, таких как Google Поиск, AdSense, Gmail и других, имеет одинаковую базовую систему поискового робота. Каждая служба выделяется за счет использования своего уникального заголовка User Agent, при этом все они соблюдают одинаковые правила, описанные в файлах robots.txt, и поддерживают схожие стандарты здоровья сервера.

Иллюес объяснил:

Вы можете скачивать данные из интернета, но вам нужно указать свою строку агента пользователя.

Принятие этого единого метода означает, что все роботы Google следуют тем же рекомендациям и уменьшают свою активность, когда сайты сталкиваются с проблемами.

Настоящий пожиратель ресурсов? Это не лазание.

Иллиес заявила:

Он даже пошутил, что его будут «кричать в интернете» за это высказывание.

От тысяч до триллионов: рост интернета

Команда Google предложила исторический взгляд. Ещё в 1994 году поисковая система WebWoRM каталогизировала примерно 110 тысяч веб-страниц, а WebCrwaler проиндексировал около 2 миллионов. Сегодняшние сайты часто содержат значительно больше информации – миллионы страниц каждый.

Из-за такого быстрого темпа развития технологии пришлось адаптироваться и прогрессировать. Простые веб-краулеры перешли от использования оригинальных методов HTTP 1.1 к более эффективным протоколам HTTP/2 для ускорения передачи данных, также планируется поддержка перспективного протокола HTTP/3.

Битва за эффективность от Google

В прошлом году Google предприняла усилия по снижению влияния веб-скрейпинга на сайты, осознавая нагрузку, которую он создает для менеджеров сайтов. Тем не менее, новые препятствия остаются в этом процессе.

Иллиес объяснил дилемму:

За каждый запрос вы экономите в общей сложности семь байт. Данный предстоящий продукт вернет дополнительно восемь байт.

Каждое улучшение эффективности, достигнутое благодаря ИИ, компенсируется необходимостью дополнительных данных при разработке новых продуктов ИИ, создавая замкнутый цикл без замедления.

Что должны делать владельцы веб-сайтов

Предстоящий всплеск трафика требует действий в нескольких направлениях.

  • Инфраструктура: Текущий хостинг может не выдержать ожидаемой нагрузки. Оцените возможности сервера, опции CDN и время отклика перед наступлением притока.
  • Контроль доступа: ознакомьтесь с правилами robots.txt, чтобы управлять доступом к вашему сайту для различных роботов-пауков ИИ. Блокируйте ненужных ботов и разрешайте работу легальных.
  • Производительность базы данных: Иллиес особо отметил «дорогостоящие запросы к базе данных» как проблему. Оптимизируйте запросы и внедрите кэширование для снижения нагрузки на сервер.
  • Мониторинг: Отличайте легитимных поисковых ботов и агентов искусственного интеллекта от вредоносных ботов путем тщательного анализа журналов и отслеживания производительности.

Путь вперед

Иллиес предложил использовать модель Common Crawl как возможный шаблон, при которой данные собираются один раз и становятся доступными открыто, снижая тем самым повторяющийся веб-трафик. По мере эволюции интернета могут возникать подобные кооперативные подходы.

Иллиес заверил в способности интернета справляться с растущим трафиком; однако очевидно, что агенты ИИ стремительно увеличиваются в огромных количествах.

Сайты, которые укрепляют свои основы сегодня, будут более устойчивыми перед предстоящими вызовами. В то же время те, кто отложат это дело, могут столкнуться с серьёзными трудностями, когда воздействие ситуации станет интенсивным.

Прослушайте полный эпизод подкаста ниже:

https://www.youtube.com/watch?v=iGguggoNZ1E

Смотрите также

2025-05-29 20:39

Спроси у СЕО: Как нам перенаправить Гугл с нашего старого имени бренда на новое?

В этой части «Задай вопрос SEO-специалисту», читатель просит совета по обеспечению того, чтобы поисковыми системами был распознан их обновленный бренд.

Кажется, что несмотря на недавнее корпоративное обновление и смену названия, поисковые запросы по-прежнему преимущественно возвращают результаты нашего старого бренда. Новая идентичность кажется испытывает трудности в сравнении. Как лучше всего перевести капитал бренда из поиска от старого имени к новому?

Это невероятно раздражает, когда старое название бренда всплывает в поисковых запросах на Google после того, как вы уже представили новое. Вы вкладываете значительные усилия в создание нового имени и оказываетесь застрявшими на странице результатов поиска с устаревшим названием.

Это действительно расстраивает.

Здесь по сути три шага.

  1. Управляйте своей экосистемой.
  2. Запросите изменения на сторонних сайтах.
  3. Создавайте имя нового бренда, чтобы не зависеть от второго места.

Согласование активов, находящихся под Вашим контролем

Для поддержания последовательной идентичности бренда убедитесь, что свежевыбранное название вашего бренда единообразно используется во всех ваших активах.

Говоря проще, некоторые места сразу бросаются в глаза, например, ваша главная страница. Естественно, вы захотите изменить способ представления себя на главной странице.

Как опытный веб-мастер, я обнаружил, что часто существуют скрытые уголки в вашем онлайн-присутствии, которые могут все еще содержать прежнее название вашего бизнеса.

Это может включать:

  • Заголовки страниц и мета-описания.
  • Альтернативный текст.
  • Страницы знаний.
  • Разметка структурированных данных.
  • Неиспользуемые аккаунты социальных сетей.
  • Биографии сотрудников (и на вашем сайте, и вне его).

Как опытный веб-мастер могу вам сказать, что всё дело в том, чтобы убедиться, что даже самые мелкие детали находятся на своих местах – завязать все свободные концы и тщательно завершить каждый аспект. Для крупных брендов с обширными цифровыми пространствами эта задача может оказаться сложнее, чем кажется изначально из-за сложностей управления огромной экосистемой.

На мгновение представим ситуацию, где изменилось не само имя основного бренда, а наименование конкретного продукта или дочернего бренда.

Там может быть бесконечное количество страниц, о которых вы не подозреваете, потенциально связанных с прежним номенклатурой.

Когда сталкиваются с подобной ситуацией, было бы разумно провести тщательный анализ или проверку. Это предложение актуально для всех случаев без исключения, независимо от размера вашего веб-сайта. Бывает довольно легко пропустить страницу, которая связана с вашей номенклатурой, и иногда забыть о существовании такой страницы.

Это должно помочь обеспечить максимально возможную согласованность поисковой выдачи вашего бренда с новым наименованием.

Тем не менее, некоторые аспекты на страницах результатов поисковых систем (SERP) могут требовать улучшения, включая вашу информационную панель знаний. Для эффективного решения этой задачи важно мозговой штурм стратегий, выходящих за рамки наших собственных ресурсов.

Согласовать сторонние активы

Осведомление людей о новом названии бренда может оказаться сложнее, чем просто обеспечение последовательности на всех ресурсах, хотя достижение этой согласованности не всегда бывает таким простым, каким кажется.

Получение поддержки от третьих сторон при изменении бренда крайне важно.

Как профессионал в области цифрового маркетинга, я стремлюсь вдохновлять обсуждения, которые естественным образом включают название вашего нового бренда. Вот как это можно сделать: 1. Создавать убедительный контент: Разрабатывать увлекательные истории, блоги, видео или обновления социальных сетей, вызывающие интерес и любопытство у вашей целевой аудитории. 2. Поощрять пользовательский генерируемый контент (UGC): Организовывать конкурсы или кампании, приглашающие пользователей поделиться своими уникальными впечатлениями от вашего бренда, используя ваш хэштег или указывая бренд в социальных сетях. 3. Развивать отношения: Взаимодействовать с потенциальными клиентами и влиятельными лицами в релевантных онлайн-сообществах, форумах и социальных сетях. Строить прочные связи, отвечая внимательно и оперативно на их комментарии, вопросы и замечания. 4. Использовать инфлюенсерский маркетинг: Сотрудничать с ключевыми лидерами мнений, которые помогут представить ваш бренд своим подписчикам и создать шумиху вокруг вашего нового названия. 5. Отслеживать онлайн-обсуждения: Следить за социальными сетями, форумами и другими платформами, где обсуждаются темы, связанные с вашей индустрией или нишей. Вступать в беседу, делиться ценными знаниями и ненавязчиво упоминать ваш бренд при возможности. 6. Поощрять рекомендации друзей: Предлагать стимулы, такие как скидки или бесплатные товары, для клиентов, успешно рекомендующих новых покупателей вашему бизнесу. 7. Разрабатывать уникальную идентичность бренда: Создавать отличительный визуальный стиль, тон голоса и личность, которые выделяют ваш бренд среди конкурентов и побуждают людей говорить о вас. 8. Быть аутентичным и прозрачным: Завоевывать доверие открытостью, честностью и последовательностью в общении с потенциальными клиентами. Люди более склонны делиться своим положительным опытом с брендами, к которым чувствуют настоящую привязанность.

В рамках этой задачи есть вещи, которые проще выполнить, и те, что гораздо сложнее.

Начните с решения более простых задач в первую очередь. Завершив их, вы обеспечите прочную базу, которая позволит вам заниматься вопросами, где ваше влияние может быть менее значительным.

Непринужденное место для продвижения можно найти в биографиях авторов. Если вы или любой член вашей команды создали контент на другом сайте (например, статьи, вебинары, подкасты и так далее), обычно предоставляется биография, которая может упоминать вашу компанию либо содержать ссылку на неё.

Убедитесь, что эти биографии обновлены и отражают текущее название компании.

О, кстати, важно удостовериться, что все упоминания бренда в этих биографиях актуальны.

В качестве примера, в моей биографии на сайте журнала поисковых систем упоминается моя компания дважды.

Получить эти обновления совсем не сложно.

Легко упустить несколько побед здесь.

Но правильное оформление этих ссылок может помочь с результатами в поиске Google.

После того как я обновил свой BIOS на различных сайтах с указанием моего нынешнего работодателя, панель знаний Google распознала это изменение.

Хотя моя предыдущая биография Wix часто появляется как основной URL в панели знаний и среди первых результатов органического поиска, теперь Google также использует изображения с моего сайта.

Заметьте, кстати, что поскольку я заботился о своих социальных сетях, мой текущий бренд отображается в профиле LinkedIn, что может вызывать путаницу с учетом результата поиска Wix ниже (т.е., того факта, что я работаю на Wix).

Это именно то, что я хочу. Я хочу, чтобы человек спросил: «Он все еще действительно работает в Wix?»

Когда третьи стороны не согласятся

Если ваш бренд фигурирует под старым названием в неотзывчивом списке статей, это означает, что издание не изменило название бренда, несмотря на ваши просьбы. Это может потенциально привести к недопониманию среди читателей, которые могут быть неосведомлены о ваших усилиях по ребрендингу.

Если на платформе вроде Reddit постоянно появляются многочисленные упоминания старого названия бренда, которое невозможно удалить, какие могут быть последствия? Или проще говоря: как это может повлиять на ситуацию, если на Реддите полно ссылок на бывший бренд, который нельзя убрать?

Для начала это показывает логику проведения кампании по объявлению нового брендинга.

Часто компании проводят промоушен-кампании с целью продемонстрировать обновленный имидж, вызвать энтузиазм и интерес, или повысить показатели конверсии.

С этим нет никаких проблем. На самом деле, при ребрендинге компании все равно рекомендуется запустить кампанию, независимо от того, произойдут ли какие-либо изменения.

Чтобы было ясно, что наш старый бренд переименован, мы могли бы поощрять людей использовать новое название при обсуждении нашего бренда на платформах вроде Reddit. Это может побудить их задуматься и начать употреблять обновленное имя в своих разговорах.

Как специалист по SEO, я всегда рад услышать упоминание моего старого названия бренда в обсуждениях, поскольку это обычно означает, что другой участник поделится информацией о том, что имя бренда действительно претерпело изменения. Это не только поддерживает меня информированным, но и помогает сохранить единообразие интернет-присутствия для обновленного имиджа бренда.

Изменив эту настройку, вы уменьшите количество мест для выбора нового способа упоминания вашего бренда и сократите число случаев неправильного использования названия вашей марки в интернете. Это приведет к уменьшению количества обсуждений на Reddit о старом названии вашего бренда при поиске по Google.

В этой ситуации, если ваша компания указана в топ-10 списке, но сайт не реагирует на ваши попытки обновить имя, что следует сделать вместо этого? Ответ: Можно попробовать связаться с дополнительными письмами или сообщениями, а также через социальные сети или другие платформы для решения проблемы. Если ничего не помогает, можно рассмотреть возможность подачи исправлений напрямую поисковым системам, которые индексируют списки.

Ничего.

Продолжайте развиваться, вы неизменно расширяете своё влияние через различные публичные мероприятия, создавая дополнительный контент, налаживая контакты с большим числом людей и в итоге увеличивая своё влияние по всему миру онлайн и офлайн, делая ваш бренд синонимом общепринятого.

До тех пор пока Граф знаний от Google не будет заполнен информацией о Морди Оберштейне как основателе UniFy Brand Marketing вместо его роли главы SEO-бренда в WiX.

Так как их сайт не включил ваше последнее обновление имени, кажется, что они сопротивляются моде. Теперь перед ними стоит задача показать, что они не старомодны и не устарели.

Установите ожидания

Этот прогресс не будет достигнут за одну ночь; вместо этого, воспринимайте его как долгосрочную работу, требующую терпения и времени.

Использует ли ваш новый бренд все чаще и чаще в различных цифровых пространствах? Если да, это замечательно! Замечаете ли вы рост вопросов о том, поменяли ли вы свое название? Это тоже положительный знак.

В роли специалиста по цифровому маркетингу я рад поделиться тем, что по мере последовательного создания нашей новой брендовой идентичности онлайн, Графическая панель знаний Google начнет учитывать эти изменения. Со временем она зарегистрирует, что предыдущее название было заменено нашим новым, обеспечивая более точное отображение нашего бренда в результатах поиска.

Как только ваш новый бренд станет узнаваемым, любой, кто заинтересован в поддержании актуального контента, вероятно сам внесет необходимые корректировки или свяжется с вами за рекомендациями по изменениям.

По моему профессиональному мнению как опытного веб-мастера, я заметил, что многие сайты публикуют сейчас контент ниже среднего качества, который в идеале не должен существовать.

Смотрите также

2025-05-29 15:39

Google Discover, режим AI и что это означает для издателей: интервью с Джоном Шехатой

В последнее время, характеризующееся появлением сводок от искусственного интеллекта и постоянными изменениями в Google, редакторы новостей столкнулись с трудным периодом. Хорошей новостью стало то, что теперь Google Discover доступен на настольных компьютерах.

С другой стороны, недавнее введение режима AI может привести к тому, что пользователи перестанут пользоваться стандартной строкой поиска, что потенциально снизит эффективность функции ‘Discover’ как решения.

Как опытный вебмастер, недавно я имел честь провести плодотворную беседу с Джоном Шехатой, признанным экспертом в области Google Discover, роста цифровой аудитории и поисковой оптимизации для издателей новостей. Этот диалог предоставил мне ценные сведения о современном состоянии SEO-ландшафта для новых участников издательского дела.

Шехата является создателем NewzDash и имеет более чем двадцатилетний опыт работы в этой области. Этот багаж знаний поддерживается различными руководящими должностями в таких уважаемых изданиях как Vogue, The New Yorker и GQ под эгидой Condé Nast.

В ходе нашей дискуссии мы подробно изучаем возможные последствия доступности Google Discover на настольных компьютерах, что может привести к возвращению некоторого ранее утраченного веб-трафика, а также появление Искусственного Интеллекта (ИИ) в пользовательских интерфейсах поиска.

Как эксперт по SEO, я часто обсуждаю роль ИИ в управлении страницами результатов поисковых систем (SERP). Вот мои рекомендации для брендов и создателей контента, как эффективно ориентироваться в этом меняющемся ландшафте: 1. Приоритезировать качественный контент: Алгоритмы AI разработаны так, чтобы отдавать предпочтение высоко-качественному, релевантному и увлекательному контенту. Убедитесь, что ваш контент ценен, оригинален и хорошо структурирован для оптимальной видимости. 2. Оптимизировать пользовательский опыт: ИИ предпочитает сайты с плавным UX. Сосредоточьтесь на мобильной адаптивности, быстром времени загрузки, интуитивной навигации и удобной читаемости. 3. Использовать семантический поиск: AI лучше понимает контекст поисковых запросов, чем когда-либо прежде. Используйте релевантные ключевые слова, синонимы и связанные термины, чтобы помочь вашему контенту появляться в большем количестве запросов. 4. Создавать сильное онлайн присутствие: Установление авторитета в нише может повысить вашу видимость. Это включает создание высококачественных бэклинков, взаимодействие с аудиторией в социальных сетях и поддержание постоянного присутствия в интернете. 5. Быть в курсе последних трендов: Следите за последними тенденциями и обновлениями в AI и SEO, чтобы оставаться впереди конкурентов. Цифровой ландшафт постоянно меняется, поэтому важно адаптироваться и внедрять инновации соответственно.

Вы можете посмотреть полное видео здесь и найти полную расшифровку ниже:

https://www.youtube.com/watch?v=Leh4r23sj6w

ИМХО: Google Discover, искусственный интеллект и их значение для издателей (транскрипт)

Шелли Уолш: Джон, могли бы вы поделиться своими мыслями о предполагаемом влиянии AI на трафик новостных изданий?

Джон: В среднем многочисленные исследования показывают, что веб-сайты могут испытывать потерю трафика в диапазоне от 25% до 32%, преимущественно из-за внедрения новейших систем ИИ для создания кратких выдержек.

На данный момент нет конкретных исследований, проведённых для новостных издателей, поэтому мы сейчас работаем над этим.

Примерно год назад мы провели анализ и обнаружили, что около 4% всех запросов новостей вызывали краткое резюме от ИИ. С тех пор прошел год.

В NewsDash мы представляем инновационный элемент: отслеживание в реальном времени обзорных данных по ИИ для каждого новостного запроса по мере их роста популярности. Примечательно, что данная функция пока показала наибольшее влияние на сектора здравоохранения и бизнеса.

Примерно четверть всех запросов новостей касалась здоровья, в то время как бизнес, хоть точную цифру я и не помню, составил около 8%. Что касается главных трендов новостей, это было почти несущественно.

Примерно через два месяца мы соберем надежные данные, однако из моих исследований год назад видно, что интеграция для новостных запросов ограничена за исключением некоторых специализированных областей.

В настоящее время исследования показывают, что они испытывают снижение трафика от 25% до 32%.

Может ли Google Discover восполнить потерю?

Шелли: Судя по моим личным наблюдениям, издатели столкнулись со значительными трудностями не только из-за ИИО (AIO), но и благодаря многочисленным полезным обновлениям Google за последние полтора года. В ходе исследования для нашего разговора я наткнулся на статистические данные, которые показывают…

Учитывая существующее распределение трафика с 90% от мобильных устройств и 10% от настольных компьютеров, это обновление может привести к росту Discover-трафика для издателей примерно на 10-15%.

Вы считаете, что Discover может потенциально компенсировать потери трафика, которые испытывает AIO? Будет ли сосредоточение усилий исключительно на Discover жизнеспособной долгосрочной стратегией для издателей в текущих рыночных условиях?

Джон: Действительно, этот вопрос весьма интересен. Я размышлял над идеей, своего рода подозрением, что Google может направлять больше веб-трафика через Discover к создателям контента, одновременно снижая трафик из результатов поиска.

Эй, вместо того чтобы зацикливаться на этом, давайте сосредоточим внимание на поиске чего-то нового. Говоря проще, давайте исследовать, раскрывать и открывать вместе. И я могу ошибаться полностью.

Google Discover представляет проблему, поскольку он может быть весьма непредсказуемым, но трудно устоять перед его влиянием. В результате издатели часто обнаруживают, что более половины их веб-трафика приходится на Google Discover.

Мне кажется, что издатели могут постепенно забывать о важности поиска и уделять больше внимания функции Discover. На мой взгляд, это может быть рискованной стратегией.

По моему мнению, Google Дискавер работает скорее как средство распространения контента, нежели как стратегический подход. Поэтому крайне важно уделять первостепенное внимание качеству вашего материала независимо от того, делитесь ли вы им через социальные сети, Google Дискавер, поисковые результаты или другие каналы.

Мне кажется, что функция «Discover» работает как продолжение функции поиска. Соответственно, если ваш рейтинг в поисковой выдаче уменьшается, то и трафик от этой функции также со временем снижается — тенденция, которую я наблюдал ранее.

В некоторых случаях мы сотрудничаем с клиентами, предпочитающими более социально ориентированную или исследовательскую стратегию. Это означает, что они часто используют привлекательные заголовки, краткие описания и стремительный темп публикаций – постоянно выпуская новый контент один за другим.

За шесть месяцев я заметил значительное снижение поискового трафика на моем сайте. Этот спад затронул не только обычные результаты поиска, но и раздел Discovery, к сожалению, теперь мой контент отсутствует также в разделе Новости.

Google достиг той стадии, когда начал оценивать, что данный издатель больше не попадает в категорию новостных издателей.

Итак, это предупреждение.

Как опытный вебмастер, я усвоил, что хотя использование Google Discover для трафика может быть полезным, оно не должно являться основой вашей онлайн-стратегии. Максимально используйте каждую посетителя от Google Discover, но всегда помните о возможности непредсказуемого исчезновения трафика без явной причины. Очень важно разнообразить стратегии и сосредоточиться на долгосрочном росте для устойчивого успеха в цифровом мире.

Как эксперт по SEO, я получаю множество вопросов из Бразилии и других стран относительно значительных потерь трафика на их крупных веб-сайтах в апреле месяце. Несмотря на отсутствие изменений в технических или редакционных аспектах этих сайтов, они столкнулись с резким снижением числа посетителей.

Говоря проще, то о чём идёт речь — это не долгосрочный план или стратегия, а скорее краткосрочное действие или метод, которым стоит воспользоваться в полной мере. Однако для более стратегического подхода рекомендую рассмотреть диверсификацию как общий план.

Прямо сейчас Google составляет примерно 80% трафика издателей, включая поисковые запросы, Discovery и прочее.

Действительно, я твердо убежден, что новостные рассылки играют важную роль независимо от того, насколько они популярны или влияют на большинство партнерств.

Издателям было бы благоразумно тщательно обдумать пути расширения разнообразия их контента, привлечения большего числа посетителей и разработки множества источников дохода.

Режим Возрастания Искусственного Интеллекта

Шелли: Переходя к другой теме, я бы хотела обсудить с вами режим ИИ. Меня заинтересовало кое-что интригующее из того, что вы упомянули об этом в LinkedIn.

Говоря проще, вы упомянули, что режим искусственного интеллекта (AI) может быть установлен как стандартная точка зрения в будущем. Это могло бы привести к увеличению количества просмотров, но уменьшению кликов от пользователей.

В свете текущих трендов, какое развитие страниц результатов поисковой системы (SERP) вы ожидаете увидеть в следующем году с учетом важности сосредоточения внимания на этих результатах для издателей?

Джон: Когда речь заходит о развитии страниц результатов поиска (SERPs), сначала мы столкнулись с простыми синими ссылками. Однако Google осознала недостаточную эффективность этого подхода и ввела так называемый универсальный поиск. С этим обновлением стали доступны различные элементы, что обеспечило более полное поисковое взаимодействие.

Более того, это не остановилось на достигнутом; начали интегрироваться избранные фрагменты и прямые ответы. В конечном итоге всё зависит от пользовательского опыта.

За последний год был значительный рост использования технологий Языковых моделей (LMM), таких как ChatGPT, а также терминов вроде Perplexity. Это быстрое развитие привело к тому, что Google все чаще внедряет искусственный интеллект в свои сервисы.

Всё началось с SGE и развилось до AI Overview, а совсем недавно был запущен режим AI.

Как профессионал в области цифрового маркетинга, я не могу не согласиться с Сундаром из Google о будущем поиска. Искусственный интеллект (ИИ) действительно является нашим будущим и представляет собой не просто тренд, а трансформацию, которая пронижет каждый продукт и поисковый опыт, который мы знаем сегодня. Эта революция на основе ИИ установится доминировать над ландшафтом, определяя способы нашего взаимодействия с информацией и услугами в интернете.

1. Сколько людей может перейти на использование режима ИИ?
2. Соответствует ли их ожиданиям текущий формат краткого обзора ответа?

А если они захотят углубиться в тему, то могут обратиться к ссылкам или сайтам с источниками и так далее.

Неясно когда искусственный интеллект может взять верх над традиционным поиском. Однако стоит учесть следующее: посещение интерфейса Perplexity и просмотр результатов поиска кажутся словно взаимодействием между искусственным интеллектом и традиционными результатами.

Проще говоря, вероятно, взаимодействие с инструментами вроде ChatGPT станет стандартом в будущем при работе с поисковыми системами и генеративными технологиями, независимо от того, произойдет это скоро или немного позже.

Основываясь на наших наблюдениях, трудно точно предсказать когда это произойдет, но я полагаю, что это не будет слишком далеко от нас в будущем, особенно учитывая, что поколение Z предпочитает общение длительному поиску. Это значит, изменения могут произойти скорее раньше, чем позже.

Похоже, что мы станем свидетелями этого развития в ближайшее время. Я не могу точно сказать когда, но предполагаю, что сейчас они оценивают взаимодействие пользователей с режимом AI и сводками от ИИ для принятия решений по последующим действиям.

Видимость, а не трафик — новая метрика.

Кроме того, похоже, что ИИ может выступать в качестве хранителя страниц результатов поисковых систем (SERP).

Учитывая, что ассистенты по юридическим вопросам типа LLMA и режим ИИ не исчезают, какие стратегии вы применяете при работе с вашими клиентами для адаптации к изменяющемуся ландшафту?

Джон: Вчера состоялась продолжительная дискуссия с одним из наших клиентов по различным темам.

Проще говоря, я предложил начать с мониторинга, затем провести анализ и после этого принимать меры. Такая последовательность является критически важной, поскольку преждевременное действие без достаточной информации о влиянии ИИ на их платформу, сайты и общий трафик может привести к нежелательным результатам. Один лишь трафик не является единственным значимым показателем для учета.

На протяжении поколений это звучало как вопрос о трафике, но так быть не должно.

Поскольку новый мир характеризуется снижением уровня веб-трафика, это представляет собой проблему для издателей, которые в основном полагаются на трафик как основной источник дохода.

Вы можете измерить свои транзакции или конверсии независимо от того, получаете ли вы трафик или нет.

ЧатГПТ проводит интеграцию с Шопифэй.

Обзор искусственного интеллекта от Google предоставляет прямые ссылки на покупки, позволяя вам приобретать товары непосредственно через Google или другие веб-сайты. Это исключает необходимость прохождения нескольких этапов, например, сначала посещения сайта, а затем совершения покупки.

Я думаю, вам нужно отслеживать и анализировать, где вы теряете свой трафик.

Должны ли издатели уделять приоритетное внимание этим конкретным областям (вертикалям) для своего контента или нет? Важно следить за видимостью вашего контента в этих областях.

Все чаще люди ищут последние новости. Вчера я написал в LinkedIn о том, что если кто-то ищет «Met Gala 2025», то Гугл покажет самые релевантные заголовки и все актуальные новостные статьи по этой теме.

Как SEO-эксперт, я бы переформулировал это так: ‘Если вы настроите свой поиск на вопросы вроде «Что произошло на Met Gala?», «Что случилось между Трампом и Зеленским?» или «Каковы подробности того конкретного события или момента?», то обнаружите более релевантные результаты.’

Гугл определил, что вы предпочитаете сжатую и обобщенную версию текста вместо чтения множества источников для понимания основных моментов.

События вчерашнего дня были кратко изложены с акцентом на основную тему. Представлены ключевые моменты, которые служат дорожной картой для дальнейшего изучения.

С увеличением числа пользователей предпочитающих краткие резюме вместо повторных заходов на веб-сайты ожидается снижение количества генерируемых просмотров.

Все более вероятно, что схемы будут играть значительную роль в том, как ChatGPT находит контент. Я полагаю, мы увидим рост числа издателей, устанавливающих прямые связи или соглашения с различными моделями обучения языкам (LLM).

Важно учитывать ситуацию, когда чат-боты вроде ChatGPT и другие модели языкового обучения (LLMs) должны компенсировать издателям за информацию, которую они используют. Это может быть в виде оплаты контента, используемого при их обучении, или конкретных данных, таких как поисковые запросы, к которым они имеют доступ.

Похоже, важно рассмотреть возможность появления нового источника дохода, возможно связанного с обменом или транзакцией, как дополнительного финансового ресурса для издателей.

Приоритет анализа перед новостями о товарах

Действительно, разве это не значительная проблема перед нами стоит? Традиционные издательства новостей усердно стараются обеспечить высококлассные свежие новости, в то время как крупные языковые модели (LLM) кажутся извлекающими выгоду из этих усилий.

Если они планируют выпускать только обобщения (summaries), похоже, мы можем вернуться к начальным стадиям развития Google, где все критиковали компанию за похожие действия.

Может ли быть полезно для издателей новостей адаптировать свой подход и тип создаваемого контента? И реально ли такое изменение с учетом текущих обстоятельств?

Джону кажется существенным для них сосредоточиться на контенте, который является полезным и просветительским для пользователей, хотя не все издатели попадают в эту категорию, так как некоторые просто сообщают новости, например, ‘Такой-то сделал то-то там.’

Подобный тип новостей можно найти на множестве веб-сайтов, что означает: если вы перестанете создавать такой контент, поисковые системы вроде Google и различные языковые модели (LLM) найдут аналогичный материал примерно в ста различных формах. Это не тот вид качественного контента, к которому мы стремимся.

В отличие от этого, другой материал предоставляет детальный анализ сценариев или событий, предлагая такие идеи, как «Вот обзор поведения рынка вчера. Вот некоторые действия, которые вы могли бы рассмотреть.»

Вместо того чтобы сосредотачиваться исключительно на репортажах новостей, я считаю, что создание уникального и ценного контента будет выделяться больше. Хотя освещение событий остаётся важным, изобилие оригинальных и скопированных статей может перенасытить рынок, делая отличительный контент более заметным.

Если Google и подобные модели обучения языкам указывают на необходимость высококачественного контента, важно понимать, что создание и распространение такого контента не являются дешёвыми. Это включает в себя производство контента, его освещение в СМИ и сопутствующие мероприятия.

Похоже, разумным подходом может быть создание системы, при которой данные платформы компенсируют издателей не только за изначально предоставленный контент, но и за контент, потреблённый пользователями и используемый в моделях обучения платформ.

Первоначально Google предлагал сделку: они будут показывать один-два фрагмента вашей статьи, а взамен отправят трафик на ваш сайт для возможной монетизации. Однако сейчас эта договоренность больше не работает так, как раньше.

В своей работе в качестве специалиста по цифровому маркетингу я часто сталкивался с мнением: «Не завышай ожидания от Google». Однако за последние два десятилетия, кажется, существовало неявное соглашение между всеми нами — своего рода контракт, если можно так выразиться — о том, как мы будем взаимодействовать с Google. Это контекст, из которого я формирую стратегии SEO и тактики цифрового маркетинга.

Так что да, именно туда мы должны идти.

Этическая дискуссия вокруг LLM и контента издательств

Джон (Эксперт по SEO): Передвижение в такой ситуации может оказаться трудным делом, но я полностью согласен с важностью первоклассного контента с точки зрения SEO.

В SEJ мы больше концентрируемся на создании высококачественных авторских материалов по лидерству и инновациям вместо того, чтобы просто публиковать статьи, основанные на текущих событиях. Мы вкладываем значительные ресурсы в разработку этих экспертных колонок.

Однако концепция LLM кажется повторяющейся; по сути они основываются на труде других без добавления значительных новых идей. Эта тема вероятно вызовет дебаты в следующем году, делая интересным наблюдение за ее развитием. Тем не менее, это более широкая тема, требующая отдельного рассмотрения позднее.

Как SEO эксперт, один аспект моей работы, который меня восхищает, — это исследование сферы отслеживания LLM (links leading machines), то есть ссылок, ведущих к машинам. В цифровом пространстве, по которому я путешествую, я всегда в поисках новых упоминаний, цитирований и даже реферальных переходов, созданных системами ИИ. Этот процесс не только помогает мне оптимизировать стратегии SEO, но также предоставляет ценные сведения о растущем влиянии искусственного интеллекта на наш онлайн-мир.

Джон: Один из аспектов моей работы включает регулярные встречи с издателями — обычно от 10 до 15 раз в неделю.

Взаимодействуя с издателями и будучи информированным о текущих событиях в их редакциях — понимая их проблемы, области для улучшения и т.д., мы усиливаем свои возможности, эффективно формируя наш стратегический план или направление.

Мы следили за обзором ИИ для NewzDash и рады объявить о выпуске этой новой функции в течение следующих двух месяцев!

Проще говоря, подумайте обо всех ключевых словах или терминах, которые вы отслеживаете, включая названия ваших статей и их идеальные поисковые запросы. Затем мы сообщим вам: ‘Для этого ключевого слова доступен AI-обзор’, а также дадим оценку его видимости и потенциальному снижению позиций в рейтинге.

Для тем или категорий, которые вы часто освещаете, например новостей об iPhone, стоит учесть, что рынок уже перенасыщен обзорами искусственного интеллекта (AI). Это значит, что при публикации материала о предстоящем запуске нового iPhone, такого как iPhone 16, хотя ваш контент может быть релевантен и ценен, он скорее всего будет затмеваться обилием статей с обзорами AI. В результате это может снизить вашу видимость.

После этого мы стремимся расширить наш охват и включить другие Большие Языковые Модели (LLM). В частности, планируем отслеживать упоминания, запросы, цитаты и ссылки в рамках ChatGPT, ведущего LLM-влиятеля, а также Перплексити и других крупных моделей.

Как эксперт по поисковой оптимизации (SEO), я твердо уверен в необходимости глубокого понимания текущего ландшафта и трендов, после чего разрабатываю индивидуальную стратегию, соответствующую моей конкретной нише или области контента.

Шелли: В настоящее время одной из главных препятствий, с которыми сталкиваются издатели при работе с SEO, является необходимость оставаться хорошо информированными и определять источник рефералов, генерируемых ИИ-трафиком и подобными источниками. Эта тема также вызывает мой интерес.

Джон, мне было приятно общаться с вами сегодня, и я очень ценю ваши мнения. Жду встречи лично на одном из ваших собраний в ближайшее время.

Джон: Огромное спасибо! Было очень приятно, благодарю за приглашение.

Спасибо Джону Шехата за то, что он был гостем в шоу IMHO.

Примечание: это было снято до Google I/O и объявления о запуске режима ИИ в США.

Смотрите также

2025-05-29 15:11

Патент Google на распараллеливание запросов: тематический поиск

В декабре 2024 года патент поданный Google под названием «Thematic Search«, кажется, сильно соответствует методу Query Fan-Out используемому в их режиме AI. Этот патент раскрывает механизм генерации ответов режимом AI и предлагает инновационные подходы к стратегии контента, которые могут стоить рассмотрения.

В патенте описывается система, которая группирует релевантные результаты поиска по запросу в отдельные категории или как они их называют, ‘темы’. Каждая категория включает краткое объяснение, позволяя пользователям понять решения на свои запросы без необходимости посещать несколько веб-сайтов, просто ознакомившись с обобщениями.

Данный патент описывает передовую систему для всеобъемлющих исследований, особенно для сложных или многогранных запросов. Отличительная особенность изобретения — способность самостоятельно определять ключевые темы на основе обычных поисковых результатов и использовать искусственный интеллект для создания кратких, информативных сводок по каждой теме. Эти сводки извлекаются не только из содержания, но и из контекста самих поисковых результатов.

Тематическая поисковая система

Тематические области или предметы являются основополагающей идеей, восходящей к начальным стадиям инструментов для веб-поиска, которые привлекли моё внимание и заставили сохранить этот патент несколько месяцев назад.

Вот краткое изложение того, что это делает:

  • Патент ссылается на его использование в контексте большой языковой модели и генератора резюме.
  • Это также относится к тематическому поисковому движку, который получает запрос на поиск и затем передает его в другой поисковый движок.
  • Тематический поисковик берет результаты поиска и организует их по темам.
  • В патенте описывается система, которая взаимодействует с традиционной поисковой системой и использует большую языковую модель для создания сводок тематически группированных результатов поиска.
  • Патент описывает, что единственный запрос может приводить к множественным запросам на основе «подтем»

Сравнение Распределения Запросов И Тематического Поиска

Говоря простыми словами, система, описанная в исходном документе, следует тем же принципам, что объясняет документация от Google относительно методологии распределения запросов (Query Fan-Out).

В определенных ситуациях при вводе поискового запроса типа «142-2», тематическая поисковая система вроде 120 может выдавать тематическую информацию из некоторых результатов поиска. Например, данная тематическая поисковая система 120 могла бы извлечь результаты поиска и создать более конкретные темы или подтемы (например, «район A», «район B», «район C») на основе релевантных документов внутри этих результатов поиска. На странице поиска 160 могут быть отображены подтемы темы 130a и/или тематические результаты поиска 119 по поисковому запросу 142-2. Процесс может продолжаться: выборка подтемы темы 130a могла бы побудить тематическую поисковую систему 120 собрать еще один набор результатов поиска от поисковой системы 104 и создать еще более специфические темы или суб-подтемы внутри темы 130a из этих новых результатов, и так далее.

Описание системы в патенте кажется очень схожим с объяснением метода расширения запросов от Google, особенно в подходе к исследованию связанных тем путём создания новых запросов вокруг конкретных тем.

Генератор резюме

Summarizer является частью системы тематического поиска, созданной специально для создания кратких обобщений по каждой теме на основе результатов поиска.

Так это работает:

  • Генерация сводки иногда реализуется с помощью большой языковой модели, обученной создавать оригинальный текст.
  • Генератор резюме использует один или несколько отрывков из результатов поиска, сгруппированных по конкретной теме.
  • Он также может использовать контекстную информацию из названий, метаданных и окружающих связанных отрывков текста для повышения качества сводки.
  • Генератор резюме может быть активирован при подаче пользователем поискового запроса или при инициализации тематического поисковика.

В патенте не уточняются детали «инициализации» тематического поискового движка; это может быть связано с предположением, что процесс является самоочевидным и относится к начальной стадии работы, когда движок готовится обрабатывать запрос пользователя.

Результаты запроса сгруппированы по теме вместо традиционного ранжирования

В некоторых случаях, продемонстрированных в патенте, обычные результаты поиска заменяются на категоризированные темы и автоматические обзоры. Это изменение в поиске, известное как тематический поиск, изменяет отображаемое содержание и связи с пользователями. Например, вопрос, часто оптимизированный издателями или специалистами по SEO, может служить отправной точкой для информационной экспедиции пользователя. Результаты тематического поиска могут направлять пользователя через исследование подтем, связанных с оригинальным запросом, а веб-страница, которая в конечном итоге привлечет клик, возможно, не будет первой по рангу для первоначального запроса, но окажется более подходящей для соответствующего смежного запроса.

  • Темы отображаются на странице результатов поиска, и в некоторых случаях результаты поиска (или их часть) организованы согласно множественности тем. Отображение темы может включать показ фразы этой темы.
  • В некоторых примерах поисковая система по тематикам может ранжировать темы на основе их значимости и/или релевантности к поисковому запросу.
  • Страница результатов поиска может организовать результаты поиска (или их часть) согласно темам (например, под темой ‘стоимость жизни’, идентифицируя те результаты поиска, которые относятся к теме ‘стоимости жизни’).
  • Темы и
    /или результаты поиска, организованные по темам с помощью тематического движка поиска, могут отображаться на странице результатов поиска различными способами, например в виде списков, карточек или объектов пользовательского интерфейса (UI), горизонтальной карусели, вертикальной карусели и т.д.
  • Результаты поиска, организованные по темам, могут называться тематическими результатами поиска. В некоторых случаях темы и
    /или результаты поиска, упорядоченные по темам, отображаются на странице результатов поиска вместе с обычными результатами (например, нормальными результатами поиска) от поисковой системы.
  • В некоторых примерах темы и/или организованные по темам результаты поиска отображаются в части страницы результатов поиска, которая отделена от поисковых результатов, полученных поисковой системой.

Содержание из нескольких источников объединено

Подготовленные искусственным интеллектом резюме составлены из различных онлайн источников и классифицированы по темам. Это усложняет процесс указания ссылок, поддержания видимости и оценки посещаемости веб-сайтов.

В данной патентной цитате «неструктурированные данные» означают информацию, найденную на веб-сайте.

Чтобы проиллюстрировать это, тематическая поисковая система может извлекать темы из неорганизованных данных путем непосредственного анализа содержимого соответствующих документов. Затем она классифицирует результаты поиска по этим идентифицированным темам.

B ответ на вопрос «Переезд в Денвер», такая поисковая система могла бы показать релевантные результаты (например, информативные документы), связанные с конкретным запросом.

Как профессионал в области цифрового маркетинга, я мог бы объяснить это так: при использовании тематической поисковой системы она будет выбирать группу соответствующих документов (как правило, X лучших результатов поиска) на основе запроса. Затем она создает множество тем из содержания выбранных документов. Например, темы могут включать «районы проживания», «стоимость жизни», «что делать в городе» или даже «за и против переезда». Тема может быть фразой, созданной ИИ моделью, которая обобщает общую тему, встречающуюся во всех предоставленных документах.

B некоторых случаях тематическая поисковая система определяет ключевые слова внутри каждого документа (например, из результатов поиска) и связывает их с похожими ключевыми словами в других документах для создания тем.

Контент с исходных страниц связан

Как SEO-специалист, я мог бы перефразировать это следующим образом:

B некоторых случаях отрывок 145 может представлять собой краткую выдержку из документа 126 или его метаданных. В таких ситуациях отрывок 145 возможно содержит релевантный раздел документа 126, относящийся к теме 130. Иногда поисковый результат 119, связанный с этой темой, включает в себя отрывок 145 вместе со сводным описанием 166, созданным языковой моделью 128 и помещенным в кластер 172 для удобства организации и понимания.

Влияние взаимодействия пользователя на представление

Ранее было сказано, что тематическая поисковая система не предоставляет список документов на основе поискового запроса в порядке релевантности. Вместо этого она собирает данные из различных тем, относящихся к первоначальному поисковому запросу. Взаимодействие пользователя с этими AI-сгенерированными резюме влияет на то, какие вебсайты будут посещены.

Подтемы, созданные автоматически, могут предложить разнообразные пути в процессе изучения пользователем знаний, начиная с его изначального поискового вопроса.

Аннотация использует метаданные издателя

Проще говоря, создатель резюме учитывает заголовки, дополнительную информацию (метаданные) и контекст из близлежащего текста при создании сводок. Следовательно, организованное содержание может влиять на то, как эти сводки формируются.

Ниже приводится то, что говорится в патенте; я добавил пункты списка, чтобы упростить понимание:

  • Генератор кратких версий текста может получить отрывок в качестве входных данных и выдать краткое описание для введенного отрывка.
  • В некоторых примерах генератор резюме 164 получает в качестве входных данных отрывок текста 145 и контекстную информацию, а на выходе выдает краткое описание 166 для отрывка текста 145.
  • В некоторых примерах контекстная информация может включать заголовок реагирующего документа 126 и/или метаданные, связанные с реагирующим документом 126.
  • В некоторых примерах контекстуальная информация может включать один или несколько соседних абзацев (например, соседние параграфы).
  • В некоторых примерах контекстная информация может включать краткое описание одного или нескольких соседних абзацев (например, смежных абзацев).
  • В некоторых примерах контекстная информация может включать все остальные фрагменты текста на том же ответном документе. Например, генератор резюме может принимать фрагмент текста и другие фрагменты текста (например, все остальные фрагменты) с того же ответного документа (и в некоторых случаях другую контекстную информацию) в качестве входных данных и выводить краткое описание для фрагмента текста.

Тематический поиск: Последствия для контента и SEO

Есть два способа, которыми заканчивается режим AI для издателя.

  1. Поскольку пользователи могут получать ответы из тематических сводок или выпадющих списков, поведение без клика (zero-click) вероятно увеличится, снижая трафик от традиционных ссылок.
  2. Или же это может означать, что веб-страница, которая предоставляет конец пути пользователя по информационному запросу для данного запроса, получает клик.

Кажется, нам стоит перенести фокус с ранжирования ключевых слов на понимание основного вопроса, который задает поисковик, а затем предоставлять полные ответы и предвидеть связанные вопросы для предоставления более полного ответа в рамках одной веб-страницы или создания дополнительных страниц по мере необходимости, чтобы лучше удовлетворить информационные потребности пользователя.

Вы можете прочитать патент здесь:

Тематический поиск (PDF)

Прочтите документацию Google об режиме AI (PDF)

Смотрите также

2025-05-29 13:40