Предупреждение Google о JavaScript и его отношение к поиску с помощью ИИ

Текущая беседа в группе Google Search Liaison пролила свет на проблему, с которой сталкиваются разработчики, когда дело доходит до обеспечения бесперебойной работы JavaScript с передовыми технологиями поиска.

В последнем выпуске подкаста Google «Search Off The Record» команда углубилась в растущую зависимость от JavaScript и склонность к его чрезмерному использованию в ситуациях, когда в этом нет необходимости.

Мартин Сплитт, специалист по поисковым разработчикам в Google, отметил, что основная цель JavaScript заключалась в том, чтобы позволить веб-сайтам соответствовать возможностям мобильных приложений, предлагая такие функции, как отправка push-уведомлений и возможность использования в автономном режиме.

Однако команда предупредила, что ажиотаж вокруг функциональности JavaScript может привести к чрезмерному использованию.

Хотя JavaScript во многих случаях практичен, он не является лучшим выбором для каждой части веб-сайта.

Спектр JavaScript

Сплитт объяснил, что нынешняя цифровая среда простирается от обычных веб-сайтов до динамических веб-приложений.

Он говорит:

Проработав несколько лет веб-разработчиком, я начал ценить универсальность веб-сайтов. Первоначально я рассматривал их просто как набор взаимосвязанных страниц, наполненных информацией. Но со временем я стал свидетелем их трансформации в полноценные приложения, которые могут предлагать множество функций, делая наш цифровой опыт более привлекательным и эффективным. Интересно наблюдать, как границы между веб-сайтами и приложениями продолжают стираться, открывая безграничные возможности для инноваций в цифровой сфере.

Он предложил следующий пример спектра JavaScript:

С помощью этой веб-платформы вы можете виртуально осмотреть апартаменты. Он функционирует как веб-сайт, отображая такие детали, как площадь в квадратных метрах, уровень этажа и адрес, но это еще не все: он предлагает интерактивный 3D-тур, что делает его также функционирующим как приложение.

Почему это важно?

Как специалист по цифровому маркетингу, я заметил среди разработчиков частую закономерность, которую, как мне кажется, заметил и Джон Мюллер, специалист по поиску Google: чрезмерная зависимость от JavaScript. Это потенциально может привести к проблемам со сканированием и индексированием поисковых систем, что может повлиять на видимость наших веб-сайтов в результатах поиска. Поэтому очень важно найти баланс между эффективным использованием JavaScript и обеспечением того, чтобы наш контент оставался доступным как для пользователей, так и для поисковых систем.

Многие люди отдают предпочтение этим платформам JavaScript, применяя их в сценариях, где JavaScript действительно хорош. Часто это приводит к размышлению: «Почему бы не использовать его во всех приложениях?»

Во время разговора мне в голову пришло исследование, с которым я недавно столкнулся. Это исследование показывает, что чрезмерная зависимость от JavaScript может создать проблемы для поисковых систем с искусственным интеллектом.

Учитывая возрастающую роль искусственного интеллекта в веб-сканировании, я счел необходимым привлечь внимание к нашей дискуссии.

В сегодняшнюю эпоху поиска, управляемого искусственным интеллектом, важно уделять больше внимания тому, как интегрируется JavaScript, по сравнению с прошлым, когда традиционные поисковые системы были весьма искусны в его обработке.

Исследование показывает, что боты с искусственным интеллектом становятся все более значительной частью веб-трафика, генерируемого поисковыми роботами. Однако важно отметить, что эти сканеры не способны выполнять JavaScript.

Проще говоря, чрезмерная зависимость от JavaScript может привести к снижению видимости или трафика со стороны поисковых систем, таких как ChatGPT Search, поскольку им может быть сложно индексировать и правильно понимать ваш контент.

Что следует учитывать

Использование JavaScript и ограничения поисковых роботов с искусственным интеллектом приводят к нескольким важным соображениям:

  1. Рендеринг на стороне сервера. Поскольку сканеры ИИ не могут выполнять JavaScript на стороне клиента, рендеринг на стороне сервера необходим для обеспечения видимости.
  2. Доступность контента. Основные сканеры с искусственным интеллектом, такие как GPTBot и Claude, имеют определенные предпочтения в отношении потребления контента. GPTBot отдает приоритет HTML-контенту (57,7%), а Клод больше внимания уделяет изображениям (35,17%).
  3. Новый подход к разработке. Эти новые ограничения могут потребовать переоценки традиционной стратегии разработки «сначала JavaScript».

Путь вперед

Чтобы гарантировать, что ваш веб-сайт эффективно индексируется ИИ, крайне важно найти баланс между включением современных функций и обеспечением доступа к этим функциям для сканеров ИИ.

Вот несколько рекомендаций:

  • Используйте серверный рендеринг для ключевого контента.
  • Обязательно включите основной контент в исходный HTML.
  • Применяйте методы прогрессивного улучшения.
  • Будьте осторожны, когда использовать JavaScript.

Для достижения успеха настройте свой веб-сайт так, чтобы он был удобен как для обычных поисковых систем, так и для сканеров искусственного интеллекта, при этом обеспечивая приятный пользовательский опыт.

Полную версию подкаста слушайте ниже:

Смотрите также

2025-01-03 00:39