Текущая беседа в группе Google Search Liaison пролила свет на проблему, с которой сталкиваются разработчики, когда дело доходит до обеспечения бесперебойной работы JavaScript с передовыми технологиями поиска.
В последнем выпуске подкаста Google «Search Off The Record» команда углубилась в растущую зависимость от JavaScript и склонность к его чрезмерному использованию в ситуациях, когда в этом нет необходимости.
Мартин Сплитт, специалист по поисковым разработчикам в Google, отметил, что основная цель JavaScript заключалась в том, чтобы позволить веб-сайтам соответствовать возможностям мобильных приложений, предлагая такие функции, как отправка push-уведомлений и возможность использования в автономном режиме.
Однако команда предупредила, что ажиотаж вокруг функциональности JavaScript может привести к чрезмерному использованию.
Хотя JavaScript во многих случаях практичен, он не является лучшим выбором для каждой части веб-сайта.
Спектр JavaScript
Сплитт объяснил, что нынешняя цифровая среда простирается от обычных веб-сайтов до динамических веб-приложений.
Он говорит:
Проработав несколько лет веб-разработчиком, я начал ценить универсальность веб-сайтов. Первоначально я рассматривал их просто как набор взаимосвязанных страниц, наполненных информацией. Но со временем я стал свидетелем их трансформации в полноценные приложения, которые могут предлагать множество функций, делая наш цифровой опыт более привлекательным и эффективным. Интересно наблюдать, как границы между веб-сайтами и приложениями продолжают стираться, открывая безграничные возможности для инноваций в цифровой сфере.
Он предложил следующий пример спектра JavaScript:
С помощью этой веб-платформы вы можете виртуально осмотреть апартаменты. Он функционирует как веб-сайт, отображая такие детали, как площадь в квадратных метрах, уровень этажа и адрес, но это еще не все: он предлагает интерактивный 3D-тур, что делает его также функционирующим как приложение.
Почему это важно?
Как специалист по цифровому маркетингу, я заметил среди разработчиков частую закономерность, которую, как мне кажется, заметил и Джон Мюллер, специалист по поиску Google: чрезмерная зависимость от JavaScript. Это потенциально может привести к проблемам со сканированием и индексированием поисковых систем, что может повлиять на видимость наших веб-сайтов в результатах поиска. Поэтому очень важно найти баланс между эффективным использованием JavaScript и обеспечением того, чтобы наш контент оставался доступным как для пользователей, так и для поисковых систем.
Многие люди отдают предпочтение этим платформам JavaScript, применяя их в сценариях, где JavaScript действительно хорош. Часто это приводит к размышлению: «Почему бы не использовать его во всех приложениях?»
Во время разговора мне в голову пришло исследование, с которым я недавно столкнулся. Это исследование показывает, что чрезмерная зависимость от JavaScript может создать проблемы для поисковых систем с искусственным интеллектом.
Учитывая возрастающую роль искусственного интеллекта в веб-сканировании, я счел необходимым привлечь внимание к нашей дискуссии.
В сегодняшнюю эпоху поиска, управляемого искусственным интеллектом, важно уделять больше внимания тому, как интегрируется JavaScript, по сравнению с прошлым, когда традиционные поисковые системы были весьма искусны в его обработке.
Исследование показывает, что боты с искусственным интеллектом становятся все более значительной частью веб-трафика, генерируемого поисковыми роботами. Однако важно отметить, что эти сканеры не способны выполнять JavaScript.
Проще говоря, чрезмерная зависимость от JavaScript может привести к снижению видимости или трафика со стороны поисковых систем, таких как ChatGPT Search, поскольку им может быть сложно индексировать и правильно понимать ваш контент.
Что следует учитывать
Использование JavaScript и ограничения поисковых роботов с искусственным интеллектом приводят к нескольким важным соображениям:
- Рендеринг на стороне сервера. Поскольку сканеры ИИ не могут выполнять JavaScript на стороне клиента, рендеринг на стороне сервера необходим для обеспечения видимости.
- Доступность контента. Основные сканеры с искусственным интеллектом, такие как GPTBot и Claude, имеют определенные предпочтения в отношении потребления контента. GPTBot отдает приоритет HTML-контенту (57,7%), а Клод больше внимания уделяет изображениям (35,17%).
- Новый подход к разработке. Эти новые ограничения могут потребовать переоценки традиционной стратегии разработки «сначала JavaScript».
Путь вперед
Чтобы гарантировать, что ваш веб-сайт эффективно индексируется ИИ, крайне важно найти баланс между включением современных функций и обеспечением доступа к этим функциям для сканеров ИИ.
Вот несколько рекомендаций:
- Используйте серверный рендеринг для ключевого контента.
- Обязательно включите основной контент в исходный HTML.
- Применяйте методы прогрессивного улучшения.
- Будьте осторожны, когда использовать JavaScript.
Для достижения успеха настройте свой веб-сайт так, чтобы он был удобен как для обычных поисковых систем, так и для сканеров искусственного интеллекта, при этом обеспечивая приятный пользовательский опыт.
Полную версию подкаста слушайте ниже:
Смотрите также
- Действия команды поиска Google и Bing в Новый 2025 год
- Акции T. Т-Технологии: прогноз акций.
- Google запускает новый вид «24 часа» в консоли поиска
- Акции KZOS. Казаньоргсинтез: прогноз акций.
- Акции LENT. Лента: прогноз акций.
- OpenAI выпускает поиск ChatGPT: цитаты, элементы управления Robots.txt и многое другое
- Бета-версия Audience Insights Google Merchant Center
- 9 действенных шагов для улучшения вашего рейтинга в Google
- Google Ads разрешит рекламу курьеров по фэнтези-спорту и лотереям во многих штатах
- Будет ли в Once Human кроссплатформенная игра и кроссплатформенный прогресс?
2025-01-03 00:39