Оптимизация поиска с помощью ИИ: сделайте ваши структурированные данные доступными

Как опытный веб-мастер, я недавно столкнулся с проблемой, которая затрагивает сайты, в значительной степени зависящие от JavaScript для получения структурированных данных. Похоже, что это открытие потенциально может повлиять на то, как эти сайты индексируются и отображаются в результатах поиска.

Купил акции на все деньги, а они упали? А Илон Маск снова написал твит? Знакомо. У нас тут клуб тех, кто пытается понять этот цирк и не сойти с ума.

Купить на падении (нет)

К этим данным, часто в формате JSON-LD, роботам с искусственным интеллектом трудно получить доступ, если они не содержатся в исходном ответе HTML.

Эти типы инструментов генерации текста, такие как GPTBot (используемые ChatGPT), ClaudeBot и PerplexityBot, не могут запускать JavaScript и могут игнорировать любые дополнительные структурированные данные, добавляемые после первоначального сканирования.

Использование таких инструментов, как Google Tag Manager (GTM), для динамического добавления кода JSON-LD на веб-сайты может создать трудности, поскольку некоторым ИИ-ботам сложно интерпретировать контент, генерируемый в реальном времени.

Ключевые выводы о JSON-LD и роботах с искусственным интеллектом

Как опытный веб-мастер, я углубился в последствия включения JSON-LD через Google Tag Manager (GTM) без рендеринга на стороне сервера (SSR). Вот мой взгляд на выводы.

Он выяснил, почему этот тип структурированных данных часто не видят сканеры с искусственным интеллектом:

  1. Первоначальная загрузка HTML: когда сканер запрашивает веб-страницу, сервер возвращает первую версию HTML. Если структурированные данные добавляются с помощью JavaScript, их не будет в этом первоначальном ответе.
  2. Выполнение JavaScript на стороне клиента: JavaScript запускается в браузере и изменяет объектную модель документа (DOM) для пользователей. На этом этапе GTM может добавить JSON-LD в DOM.
  3. Сканеры без рендеринга JavaScript. Сканеры с искусственным интеллектом, которые не могут запускать JavaScript, не видят изменений в DOM. Это означает, что они пропускают любой JSON-LD, добавленный после загрузки страницы.

Проще говоря, данные, организованные исключительно с помощью клиентского JavaScript, обычно не обнаруживаются большинством веб-сканеров с искусственным интеллектом.

Почему традиционные поисковые системы отличаются

Поисковые системы, такие как Google, могут понимать JavaScript и вносить изменения в веб-страницу даже после ее загрузки, включая данные из JSON-LD, добавляемые через Диспетчер тегов Google.

Напротив, многие роботы с искусственным интеллектом не могут читать JavaScript и видят только необработанный HTML-код с сервера. В результате они пропускают динамически добавляемый контент, например JSON-LD.

Предупреждение Google о чрезмерном использовании JavaScript

Эта проблема связана с более широким предупреждением Google о чрезмерном использовании JavaScript.

В своем последнем обсуждении в подкасте команда Google по связям с поиском подчеркнула растущую зависимость от JavaScript. Хотя JavaScript расширяет возможности интерактивных функций, он иногда терпит неудачу, когда дело касается важных аспектов SEO, таких как структурированные данные.

Мартин Сплитт, адвокат Google по поиску разработчиков, объяснил, что веб-сайты варьируются от простых страниц до сложных приложений. Важно сбалансировать использование JavaScript и сделать ключевой контент доступным в исходном HTML.

Джон Мюллер, еще один защитник Google Search Advocate, согласился, отметив, что разработчики часто обращаются к JavaScript, когда более простые варианты, такие как статический HTML, были бы более эффективными.

Что делать вместо этого

Чтобы предотвратить проблемы с поисковыми роботами с искусственным интеллектом, разработчики и эксперты по SEO должны гарантировать, что структурированные данные легко доступны для всех типов веб-сканеров.

Вот некоторые ключевые стратегии:

  1. Рендеринг на стороне сервера (SSR): отображает страницы на сервере для включения структурированных данных в первоначальный ответ HTML.
  2. Статический HTML: используйте разметку схемы непосредственно в HTML, чтобы ограничить использование JavaScript.
  3. Предварительная обработка. Предлагайте предварительно обработанные страницы, на которых уже был выполнен JavaScript, предоставляя сканерам полностью обработанный HTML.

Эти подходы согласуются с советом Google уделять приоритетное внимание разработке HTML и включать важный контент, такой как структурированные данные, в первоначальный ответ сервера.

Почему это важно

Сканеры с искусственным интеллектом станут еще более значимыми, поскольку они работают по четким правилам по сравнению с обычными поисковыми системами.

Если ваш веб-сайт использует Диспетчер тегов Google (GTM) или другой аналогичный клиентский JavaScript для структурированных данных, вы можете упустить из виду вероятность появления в результатах поисковых систем на основе искусственного интеллекта.

Переход на серверные или статические варианты поможет сделать ваш сайт адаптируемым к будущему, гарантируя, что он останется доступным для обнаружения не только обычными поисковыми системами, но и системами искусственного интеллекта.

Смотрите также

2025-01-20 20:09