Google расширяет возможности структурированных данных видео с помощью нового свойства

Google расширяет возможности структурированных данных видео с помощью нового свойства

Как опытный специалист по цифровому маркетингу с многолетним опытом за плечами, я считаю, что эта последняя разработка Google меняет правила игры как для создателей контента, так и для специалистов по SEO. Работая над многочисленными международными проектами, я столкнулся с не одной головной болью, связанной с географическими ограничениями на видеоконтент. Это новое свойство «ineligibleRegion» — это глоток свежего воздуха, предлагающий нам возможность управлять нашими цифровыми активами с беспрецедентной точностью.


В свое обновленное руководство по структурированию видеоданных Google добавил функцию, позволяющую веб-сайтам контролировать видимость своего видеоконтента в различных географических регионах.

Предлагая несколько вариантов настройки доступа к своим цифровым произведениям, создатели получают больший контроль над своей интеллектуальной собственностью.

Новая недвижимость усиливает региональные ограничения

Google добавил свойство «ineligibleRegion» в свои рекомендации по структурированию видеоданных.

Добавление этой новой функции расширяет текущий атрибут «regionsAllowed», предлагая другой подход к определению географических ограничений для видеоконтента.

С помощью атрибута «ineligibleRegion» вы можете указать регионы, в которых видео не должно отображаться в результатах поиска. Это отличается от атрибута «regionsAllowed», который определяет места, где разрешено показывать видео.

Как это работает

Согласно недавним рекомендациям Google, веб-сайты имеют возможность включать атрибут «ineligibleRegion» в свои структурированные данные VideoObject. Это позволяет им указать страны, в которых их видео не должны появляться в результатах поиска.

Страны следует указывать в стандартном двух- или трехбуквенном формате ISO 3166-1.

Чтобы обеспечить доступ к видео зрителям из разных регионов, включите соответствующие коды стран для каждого видео, где существуют географические ограничения. Эту функцию можно реализовать с помощью массива данных, связанных с JSON (JSON-LD), или нескольких тегов микроданных.

Последствия для SEO и контент-стратегии

Благодаря этому обновлению создатели контента и эксперты по SEO получают более высокий уровень точности при управлении видимостью своих видеоматериалов.

Эта функция обеспечивает более совершенный подход к географической сегментации, предлагая такие преимущества, как эффективное управление авторскими правами, соблюдение региональных законов и оптимизация поискового присутствия на определенных рынках.

Важно отметить, что если не указано ни свойство «ineligibleRegion», ни свойство «regionsAllowed», Google предположит, что видео разрешено к показу во всем мире.

Рекомендации

При использовании свойства ineligibleRegion следуйте следующим общим рекомендациям по SEO:

  • Используйте правильные коды стран ISO 3166-1.
  • Будьте конкретны с ограничениями.
  • Согласуйте их с другими методами географического ограничения, которые вы используете.
  • Поддерживайте актуальность структурированных данных.
  • Проверьте реализацию с помощью теста расширенных результатов Google.
  • Рассмотрите возможность использования RegionAllowed, если это лучше соответствует вашей стратегии.
  • Отслеживайте, какие видео где запрещены.
  • Отслеживайте эффективность результатов поиска в разных регионах.
  • Обеспечьте соблюдение прав на контент и местных законов.
  • Реализуйте вместе с другими ключевыми свойствами VideoObject.

Смотрите также

2024-09-11 00:38

Google утверждает, что исправление заголовков не изменит рейтинг

Google утверждает, что исправление заголовков не изменит рейтинг

Как опытный специалист по цифровому маркетингу, ставший свидетелем развития практики SEO с начала 2000-х годов, я могу с уверенностью сказать, что роль элементов заголовка с годами претерпела значительные изменения.


Проще говоря, во время дискуссии на Reddit представитель Google Джон Мюллер объяснил, что заголовки действительно оказывают некоторое влияние на результаты поиска, но подчеркнул, что не стоит слишком зацикливаться на этом при оптимизации веб-контента. Он рассказал, как Google вообще обрабатывает заголовки.

Иерархическая структура заголовков

В контексте элементов заголовков (H1, H2 и т. д.) «иерархический» и «иерархический» относятся к расположению заголовков на основе их значимости или структурного порядка. Здесь «значительность» не подразумевает важность ранжирования, а скорее соответствие структуре веб-страницы.

В большинстве случаев веб-страница обычно имеет один основной заголовок (H1), представляющий общую тему страницы, и несколько подзаголовков (H2), которые определяют суть каждого раздела. Однако стоит отметить, что для целей поиска Google основной заголовок не обязательно должен быть H1; это также может быть H2. Это означает, что хотя специалисты по SEO могут пометить основной заголовок как H1, Google не связан этим обозначением при определении темы страницы. Это не команда алгоритмам Google о том, как им следует интерпретировать заголовки, а скорее предложение или передовой опыт в поисковой оптимизации (SEO).

Информацию о технических характеристиках элементов заголовков можно найти на страницах Консорциума World Wide Web (W3C). Эта организация, устанавливающая различные стандарты, определяет роль и применение элементов HTML, таких как заголовки.

Google в первую очередь придерживается формальных рекомендаций W3C в отношении элементов HTML, но не требует жесткой интерпретации из-за широкого использования заголовков скорее по стилистическим причинам, чем по их предполагаемой семантической цели на различных веб-сайтах.

Вредят ли неправильно упорядоченные заголовки SEO?

Пользователю Reddit было любопытно узнать о потенциальных последствиях, особенно о серьезности, если элементы заголовков расположены не иерархически, а последовательно, как они уже упоминали.

Им было любопытно узнать, что произойдет, если заголовки будут не в последовательности или если заголовок вообще опущен.

Вредно ли использовать заголовки без логической последовательности, например, использовать тег h4 перед h1 или вообще пропускать тег h2 при использовании h4, h3 и h5?

Заголовки H1, H2 имеют небольшое влияние

По словам Джона Мюллера из Google, последовательность появления заголовков на веб-странице имеет незначительное влияние. Однако он не отнес его к фактору ранжирования, и конкретный характер этого влияния остается неопределенным. Вполне возможно, что хорошо структурированный порядок заголовков помогает поисковым системам лучше понимать содержимое страницы, хотя это моя интерпретация, и ваша точка зрения может отличаться.

Правильная структура заголовков полезна, поскольку облегчает поисковым системам понимание вашего контента и повышает его доступность. Создаете ли вы новый веб-сайт, вносите серьезные изменения в свои шаблоны или просто ищете что-то интересное, почему бы не потратить дополнительные десять минут на правильную организацию заголовков?

Иногда управление заголовками может быть сложной задачей, поскольку шаблон может использовать заголовки для оформления различных частей веб-страницы, например нижнего колонтитула или боковой панели. В контексте сайта WordPress это может потребовать создания дочерней темы, которая управляет стилями и изменения CSS для этих разделов дочерней темы, чтобы они были стилизованы с помощью CSS, а не заголовков.

Помимо заголовков, издатель, владелец сайта или оптимизатор сайта имеют полную власть над их расположением.

Тем не менее, наличия ключевых слов в заголовках может быть недостаточно, поскольку цель элементов заголовка — сообщить, о чем идет речь в разделе веб-страницы, и, как продолжает Мюллер, заголовки играют роль в обеспечении доступности.

Google утверждает, что исправление заголовков не изменит рейтинг

Некоторых практиков SEO может сбить с толку этот аспект, поскольку Google указывает, что реорганизация иерархической структуры заголовков не влияет напрямую на позиции сайта в поисковых системах (SERP).

В начале 2000-х годов, около двух десятилетий назад, оптимизация элементов заголовков сыграла значительную роль в повышении рейтинга в поиске Google. Поскольку я тогда был SEO-специалистом, я был этому непосредственным свидетелем. Однако к 2005 году влияние на рейтинги заметно снизилось. Это сокращение было для меня очевидным, поскольку, будучи интернет-маркетологом, я заметил, что заголовки больше не имеют решающего значения для ранжирования и вместо этого превратились в индикаторы тематики раздела веб-страницы.

Несмотря на некоторые устойчивые убеждения в сообществе SEO, когда-то считалось, что заголовки существенно влияют на рейтинг в поисковых системах. Однако утверждение Джона Мюллера о том, что элементы заголовков оказывают меньшее влияние на поисковые рейтинги, теперь указывает на изменение их важности и функции в современном контексте.

Проще говоря, внесение этих исправлений не приведет к немедленному повышению рейтинга вашего сайта. Вместо этого вы можете получить большую выгоду для SEO, сосредоточив внимание на повышении общего качества и ценности вашего сайта.

Тема, которую обсуждает Мюллер, по сути, представляет собой контраст между проектированием веб-страницы с учетом поисковой оптимизации (обеспечение структурирования заголовков так, чтобы ее понимал Google) и созданием веб-страницы для пользователей-людей (обеспечение того, чтобы страница содержала ценную, релевантную информацию, которая будет понятна Google). изложено ясно и связно).

Его заявление дает представление о том, как Google использует элементы заголовков, и является хорошим советом.

Читать обсуждение:

Непоследовательные теги заголовков?

Смотрите также

2024-09-10 23:38

Google Chrome прекращает поддержку задержки первого ввода: что это значит

Google Chrome прекращает поддержку задержки первого ввода: что это значит

Как опытный специалист по цифровому маркетингу с более чем десятилетним опытом работы за плечами, я был свидетелем эволюции показателей веб-производительности, словно молчаливый наблюдатель, наблюдающий за меняющимися тенденциями. Сегодня решение Google Chrome отказаться от первой задержки ввода (FID) и использовать взаимодействие с следующей отрисовкой (INP) в качестве основного показателя оперативности взаимодействия кажется еще одним шагом вперед в нашей цифровой одиссее.


Google Chrome официально прекратил поддержку показателя первой задержки ввода (FID), сигнализируя о сдвиге в сторону акцента на взаимодействие с следующей отрисовкой (INP) в качестве приоритета.

Рик Вискоми, который управляет взаимоотношениями с разработчиками веб-производительности в команде Chrome, подтвердил, что восприятие взаимодействия (INP) будет основным тестом, используемым для оценки скорости реагирования на взаимодействие.

Сегодняшний день: Chrome прекращает поддержку FID

Если вы все еще используете его в инструментах Chrome, ваши рабочие процессы НАРУШАТСЯ

Мы делаем ставку на INP!

— Рик Вискоми (@rick_viscomi), 10 сентября 2024 г.

Сегодняшнее объявление последовало за заменой FID на INP в качестве Core Web Vital в мае.

Следующие инструменты перестанут предоставлять данные FID в течение следующих нескольких дней:

  • Статистика PageSpeed
  • Отчет об опыте использования Chrome (CrUX)
  • веб-виталс.js
  • Расширение Web Vitals

Фон

Решение заменить FID на INP связано с ограничениями в охвате всего спектра реагирования на взаимодействие в сети.

Проще говоря, FID (первая задержка ввода) фокусируется исключительно на времени, необходимом браузеру для реакции после получения пользовательского ввода, игнорируя другие важные этапы процесса взаимодействия.

Как профессионал в области цифрового маркетинга, я предпочитаю использовать комплексный подход, охватывающий весь процесс: от отслеживания вовлеченности пользователей до мгновенной визуальной обратной связи, которую они получают на своих экранах.

Переходный период

При обновлении до версии 5.0 библиотека web-vitals.js адаптируется к модификации. Однако другие инструменты, скорее всего, перестанут предоставлять данные о задержке первого ввода (FID), если они также не будут обновлены.

Начиная с октября проект CrUX BigQuery планирует исключить поля, связанные с задержкой первого ввода (FID), из структуры своей базы данных, начиная с набора данных 202409.

Стремясь помочь разработчикам на этом переходном этапе, команда Chrome также прекращает поддержку руководства «Оптимизация FID» и вместо этого направляет пользователей к обновленным инструкциям «Оптимизация INP» для получения более эффективной помощи.

Мы также закрываем старую статью об оптимизации FID

Имея в своем распоряжении расширенные API и инструменты измерения, разумно уделить приоритетное внимание оптимизации пользовательского опыта (UX) в целом, а не просто сосредоточиться на сокращении фазы задержки ввода во взаимодействии. Это означает, что необходимо учитывать весь путь от пользовательского ввода до визуального вывода, чтобы обеспечить более плавное и эффективное взаимодействие с пользователем.

— Рик Вискоми (@rick_viscomi), 10 сентября 2024 г.

Что делать дальше

Вот несколько шагов, которые следует предпринять в свете перехода от FID к INP:

  1. Ознакомьтесь с метрикой INP, просмотрев официальную документацию на сайте web.dev. Узнайте, как INP измеряет полный жизненный цикл взаимодействия: от ввода до визуального обновления.
  2. Проверяйте текущую производительность INP вашего сайта с помощью таких инструментов, как PageSpeed ​​Insights, или служб мониторинга реальных пользователей, поддерживающих INP. Определите области, где необходимо улучшить реакцию взаимодействия.
  3. Обратитесь к руководству «Оптимизация INP» на веб-сайте web.dev, чтобы узнать о лучших практиках по уменьшению задержки ввода, оптимизации обработки событий, минимизации искажений макета и других методах улучшения INP.
  4. Обновите все инструменты мониторинга производительности или пользовательские сценарии, которые в настоящее время используют устаревшую метрику FID, чтобы использовать вместо нее INP. Пользователи web-vitals.js должны быть готовы к кардинальным изменениям в версии 5.0.
  5. Если вы используете набор данных CrUX BigQuery, запланируйте обновление конвейеров данных для обработки изменений схемы, удалив поля FID после выпуска 202409 в октябре.

Выполнив эти шаги, вы сможете обеспечить плавный переход на INP.

Смотрите также

2024-09-10 22:08

Новый WordPress 6.6.2 исправляет важную проблему с отображением

Новый WordPress 6.6.2 исправляет важную проблему с отображением

Как опытный веб-мастер с более чем десятилетним опытом работы с WordPress за плечами, я могу с уверенностью сказать, что выпуск WordPress 6.6.2 — это глоток свежего воздуха для многих из нас, кто столкнулся с проблемой специфики CSS, появившейся в версии 6.6. . Исправления в этом выпуске обслуживания не только необходимы для поддержания внешнего вида и функциональности наших сайтов, но также демонстрируют усердие и стремление сообщества WordPress к постоянному совершенствованию и совершенствованию своей платформы.


Проще говоря, версия WordPress 6.6.2 включает в себя 26 решений проблем, одно из которых решает проблему CSS, которая влияет на внешний вид сайта. В основной системе WordPress было решено около 15 проблем, а в редакторе блоков Gutenberg было внесено 11 улучшений.

Релиз обслуживания – специфика CSS

Обновления обслуживания WordPress, например, после версии 6.6, обычно не влекут за собой существенных изменений. Вместо этого они решают проблемы, которые могли возникнуть из-за появления новых функций в предыдущем основном выпуске.

Как опытный веб-мастер, я рад сообщить, что мы выпустили обновление, которое, как и его предшественники, решает интригующую проблему — проблему специфичности CSS. Эта функция была недавно представлена ​​в WordPress версии 6.6, и теперь она была усовершенствована, чтобы обеспечить более плавную работу для всех наших уважаемых пользователей.

CSS или каскадные таблицы стилей — это код, используемый для определения визуального внешнего вида веб-страницы, включая цвета, размеры, поля и интервалы. Термин «Специфичность» относится к определению того, какое правило стиля применяется к определенному элементу веб-страницы, например разделу или более мелким компонентам. Специфика CSS — это набор правил в ядре WordPress, которые решают, какое свойство CSS следует применять, когда есть неуверенность в том, какое из них использовать. Эти правила были созданы в первую очередь для того, чтобы позволить разработчикам тем легче переопределять стили WordPress по умолчанию своими собственными стилями.

Будучи профессионалом в области цифрового маркетинга, я столкнулся с проблемой при внедрении CSS-специфичности. Оказалось, что эта функция сильно повлияла на внешний вид моих веб-страниц.

Проще говоря, обновление WordPress до версии 6.6.2 решает определенные проблемы, с которыми сталкиваются издатели. Поэтому тем, кто столкнулся с проблемами, рекомендуется задуматься об установке этой последней версии.

Другие исправления

В этом обновлении вы найдете 15 исправлений, внесенных в основную структуру WordPress, и 11 исправлений, внесенных в инструмент редактирования блоков Гутенберга.

Примеры исправлений ядра, включенных в служебную версию:

Пример исправлений в Гутенберге:

Прием 6.6.2

Издателям, которым еще предстоит столкнуться с этим обновлением, не нужно беспокоиться об обновлении. Предварительные отзывы частной группы WordPress в Facebook, в частности ее администратора Дэвида Маккана, были положительными. Он утверждает, что внедрил его на десяти сайтах без каких-либо проблем (вам необходимо присоединиться к группе Facebook, чтобы получить доступ к обсуждению)).

Прочтите официальное объявление WordPress

WordPress 6.6.2 Сопровождающая версия

Смотрите также

2024-09-10 21:38

9 советов по оптимизации бюджета сканирования для SEO

9 советов по оптимизации бюджета сканирования для SEO

Как опытный специалист по SEO с многолетним опытом работы в цифровой среде за плечами, я искренне поддерживаю использование инструментов аудита веб-сайтов, таких как WebSite Auditor, Screaming Frog, Lumar, Oncrawl или SE Ranking, для обеспечения бесперебойного взаимодействия с пользователем и оптимизации производительности вашего сайта.


Идея краулингового бюджета относится к важнейшему принципу SEO, применимому к обширным веб-сайтам, содержащим миллионы страниц, а также к небольшим сайтам с тысячами ежедневно меняющихся страниц. Все дело в том, как боты поисковых систем распределяют свое время и ресурсы при сканировании этих веб-сайтов.

Примером веб-сайта с миллионами страниц может служить eBay.com, а веб-сайтами с десятками тысяч страниц, которые часто обновляются, могут быть веб-сайты с обзорами пользователей и рейтингами, подобные Gamespot.com.

SEO-специалист обычно сталкивается с многочисленными задачами и проблемами, из-за чего процесс сканирования веб-сайта иногда задерживается или ему уделяется меньше внимания.

Но краулинговый бюджет можно и нужно оптимизировать.

В этой статье вы узнаете:

  • Как улучшить свой краулинговый бюджет.
  • Изучите изменения в краулинговом бюджете как концепции за последние пару лет.

Если ваш сайт содержит всего несколько сотен страниц, но они не индексируются, мы советуем вам взглянуть на нашу статью, в которой обсуждаются распространенные причины проблем с индексацией. Вряд ли проблема кроется в краулинговом бюджете, если на вашем сайте такое небольшое количество страниц.

Что такое краулинговый бюджет?

Термин «бюджет сканирования» описывает, сколько веб-страниц исследуется роботами поисковых систем (такими как пауки и боты) в течение определенного периода.

Существуют определенные соображения, влияющие на бюджет сканирования, например, предварительный баланс между попытками робота Googlebot не перегружать ваш сервер и общим желанием Google сканировать ваш домен.

Улучшение оптимизации бюджета сканирования включает в себя реализацию стратегий, направленных на повышение эффективности и скорости доступа роботов поисковых систем к вашим веб-страницам, тем самым повышая частоту их посещений.

Почему важна оптимизация бюджета сканирования?

Первоначальное появление в результатах поиска начинается с изучения или «сканирования» поисковыми системами. Если страница не сканируется, ни новые, ни обновленные страницы не будут включены в базу данных поисковой системы.

Частое посещение сканерами ваших веб-страниц означает более быстрое включение обновлений и вновь созданных страниц в индекс поисковой системы. Это, в свою очередь, сокращает время, необходимое для того, чтобы ваши стратегии оптимизации стали эффективными и повлияли на ваш поисковый рейтинг.

Индекс Google охватывает бесчисленные миллиарды веб-страниц, и это число ежедневно увеличивается. Чтобы сэкономить на затратах, связанных со сканированием каждого URL-адреса, по мере создания большего количества сайтов, поисковые системы стремятся замедлить скорость сканирования URL-адресов и выборочно включать их в свои индексы, тем самым минимизируя затраты на вычисления и хранение.

Растет ощущение необходимости сократить выбросы углекислого газа из-за изменения климата, и у Google есть комплексный план по повышению устойчивости и минимизации выбросов углекислого газа в долгосрочной перспективе.

Итак, давайте обсудим, как вы можете оптимизировать свой краулинговый бюджет в современном мире.

1. Запретить сканирование URL-адресов действий в robots.txt

Это может стать шоком, но Google подтвердил, что запрет на индексацию определенных URL-адресов не повлияет на скорость сканирования вашего сайта. Другими словами, Google продолжит исследовать ваш сайт с той же скоростью. Однако вы можете задаться вопросом, почему эта тема актуальна здесь. Причина в том, что понимание того, как работает краулинговый бюджет, может помочь оптимизировать наиболее важные для вас страницы вашего сайта, обеспечивая их тщательное исследование поисковыми роботами Google.

Если вы ограничиваете несущественные URL-адреса, по сути, вы просите Google чаще сканировать ценные разделы вашего сайта.

Если ваш сайт включает встроенную функцию поиска с использованием таких запросов, как /search/term=Google, поисковые системы, такие как Google, будут индексировать эти URL-адреса, когда они будут найдены в ссылках в других местах сети.

Аналогичным образом на веб-сайте электронной коммерции вы можете встретить URL-адреса, созданные с использованием фасетных фильтров, например: /filter-options/color/red/and/filter-options/size/small

Эти параметры, обнаруженные в строках запроса, могут генерировать бесконечное количество различных версий URL-адресов, которые Google может попытаться изучить в процессе сканирования веб-страниц.

По сути, в этих URL-адресах отсутствует эксклюзивный контент, и они в основном сортируют уже имеющиеся у вас данные, что полезно для взаимодействия с пользователем, но не идеально для веб-сканеров, таких как Googlebot.

Ограничение сканирования определенных URL-адресов Google с помощью инструкций robots.txt может помочь оптимизировать бюджет сканирования и сделать его более эффективным. Таким образом, Google будет расставлять приоритеты и направлять свои ресурсы сканирования на более полезные страницы вашего веб-сайта, тем самым улучшая общую возможность сканирования вашего сайта.

Вот как заблокировать внутренний поиск, фасеты или любые URL-адреса, содержащие строки запроса, через robots.txt:

Disallow: *?*s=*
Disallow: *?*color=*
Disallow: *?*size=*

Каждое правило запрещает любой URL-адрес со своим конкретным параметром запроса, независимо от каких-либо дополнительных параметров, которые он может иметь.

  • * (звездочка) соответствует любой последовательности символов (включая отсутствие).
  • ? (Знак вопроса): указывает начало строки запроса.
  • =*: Соответствует знаку = и всем последующим символам.

Использование этого метода предотвращает повторение, делая определенные URL-адреса с указанными параметрами запроса невидимыми для сканеров поисковых систем.

Имейте в виду, что при использовании этого метода любые URL-адреса с указанными символами будут запрещены независимо от их местоположения. Это может непреднамеренно заблокировать определенные URL-адреса. Например, параметр запроса, состоящий из одного символа, может запретить доступ ко всем URL-адресам, содержащим этот символ, даже если он находится в другой части URL-адреса. Если вы хотите запретить URL-адреса с определенным одним символом, рассмотрите возможность использования вместо этого набора правил: таким образом вы можете специально настроить таргетинг на символы, которые хотите запретить, без потенциальной блокировки других действительных URL-адресов.

Disallow: *?s=*
Disallow: *&s=*

Критическое изменение заключается в том, что между символами «?» и «s» нет звездочки «*». Этот метод позволяет запретить определенные точные параметры «s» в URL-адресах, но вам придется добавлять каждый вариант индивидуально.

Включите эти рекомендации в свои уникальные сценарии для любых URL-адресов, которые не предлагают эксклюзивный контент. Например, если ваши кнопки списка желаний ведут к URL-адресам типа «?add_to_wishlist=1», вам следует запретить доступ к ним с помощью правила: Исключить или заблокировать использование таких URL-адресов.

Disallow: /*?*add_to_wishlist=*

Это простой и естественный первый и самый важный шаг, рекомендованный Google.

Запретив учитывать определенные параметры, Google удалось уменьшить количество сканируемых страниц с нерелевантными строками запросов. Это произошло потому, что Google сталкивался с многочисленными URL-адресами с разными значениями параметров, которые приводили к несуществующим или бессмысленным страницам.

9 советов по оптимизации бюджета сканирования для SEO

Иногда поисковые системы потенциально могут сканировать и индексировать URL-адреса, которые должны быть запрещены. Это может показаться необычным, но обычно не стоит беспокоиться. Чаще всего это указывает на то, что другие сайты ссылаются на эти конкретные URL-адреса.

9 советов по оптимизации бюджета сканирования для SEO

Google подтвердил, что в этих случаях активность сканирования со временем снизится.

9 советов по оптимизации бюджета сканирования для SEO

Избегайте применения «мета-тегов noindex» в целях блокировки, так как роботу Googlebot необходимо сделать запрос на просмотр тега, что неоправданно расходует ваш краулинговый бюджет, поскольку он не сразу распознает блокировку. Вместо этого рассмотрите возможность использования соответствующих кодов ответов HTTP или файла robots.txt для эффективного управления индексированием.

1.2. Запретить URL-адреса неважных ресурсов в файле Robots.txt

Как опытный веб-мастер, я бы рекомендовал предпринять дополнительный шаг для защиты вашего сайта: заблокировать все внешние файлы JavaScript, которые не влияют на структуру или внешний вид сайта. Это помогает гарантировать, что в вашем домене выполняются только нужные сценарии.

Например, если у вас есть файлы JavaScript, отвечающие за открытие изображений во всплывающем окне при нажатии пользователем, вы можете запретить их использование в файле robots.txt, чтобы Google не тратил бюджет на их сканирование.

Вот пример правила запрета файла JavaScript:

Запретить: /assets/js/popup.js

Дополнительная иллюстрация включает интерфейсы REST API для отправки форм. Предположим, у вас есть форма, которая указывает на URL-адрес «/api/form-submissions». Этот URL-адрес служит местом назначения, куда будут отправлены отправленные данные из вашей формы.

Вполне возможно, что эти URL-адреса могут быть проиндексированы Google. Однако они не имеют ничего общего с аспектом отображения, поэтому было бы разумно запретить к ним доступ.

Запретить: /rest-api/form-submissions/

Вместо этого важно убедиться, что конечные точки REST API, используемые автономной CMS, не заблокированы, поскольку они обычно используются для динамической загрузки контента.

Короче говоря, посмотрите на все, что не связано с рендерингом, и заблокируйте их.

2. Следите за цепочками перенаправления

Вместо прямого пути цепное перенаправление происходит, когда несколько веб-адресов ведут к другим адресам, которые продолжают перенаправляться. Если этот процесс повторяется слишком часто, сканеры поисковых систем могут отказаться от попыток добраться до конечного пункта назначения до того, как они туда доберутся.

Один URL-адрес ведет к другому, который затем ведет к третьему, и эта закономерность может продолжаться. Стоит отметить, что эти цепочки иногда могут создавать бесконечные циклы, в которых URL-адреса продолжают перенаправляться друг на друга.

Избегать этого — разумный подход к здоровью веб-сайта.

В идеале вы могли бы избежать наличия хотя бы одной цепочки перенаправлений на всем вашем домене.

Однако решение проблем с перенаправлением на большом сайте может оказаться сложной задачей из-за появления как 301, так и 302 перенаправлений. К сожалению, исправить перенаправления, вызванные входящими ссылками, сложно, поскольку нам не хватает контроля над внешними веб-сайтами.

Несколько случайных перенаправлений не вызовут серьезных проблем, но расширенные цепочки или циклы могут привести к осложнениям.

Чтобы определить цепочки перенаправления для устранения неполадок, рассмотрите возможность использования инструментов SEO, таких как Screaming Frog, Lumar или Oncrawl. Эти удобные инструменты помогут вам найти цепи.

Когда вы сталкиваетесь с цепочкой, оптимальным решением будет исключить все URL-адреса от начальной страницы до последней. Например, если ваша цепочка охватывает семь страниц, вместо этого напрямую перенаправьте первый URL-адрес на седьмой.

Как опытный веб-мастер, я хотел бы поделиться практическим советом по минимизации цепочек перенаправлений: вместо того, чтобы полагаться на перенаправления, обновите свою систему управления контентом (CMS), указав конечные пункты назначения внутренних URL-адресов, которые в настоящее время перенаправляют. Эта простая настройка может значительно улучшить производительность сайта и удобство для пользователей.

В зависимости от используемой вами системы управления контентом (CMS) могут применяться различные методы; например, вы можете использовать определенный плагин в среде WordPress. Однако если вы работаете с другой CMS, вам может потребоваться индивидуальное решение или обратитесь за помощью к своей команде разработчиков.

3. Используйте рендеринг на стороне сервера (HTML), когда это возможно.

Говоря о Google, его инструмент веб-сканирования работает с самой последней версией Chrome, гарантируя, что он может легко воспринимать контент, динамически генерируемый с помощью JavaScript, без каких-либо проблем.

Имейте в виду, что минимизация вычислительных затрат имеет решающее значение для Google, поскольку они стремятся сделать эти затраты настолько низкими, насколько это возможно.

Зачем усложнять работу Google, генерируя контент страниц с помощью JavaScript (на стороне клиента), тем самым увеличивая вычислительные затраты Google на сканирование ваших веб-страниц?

По этой причине, когда это возможно, вам следует придерживаться HTML.

Таким образом, вы не ухудшите свои шансы при использовании любого сканера.

4. Улучшите скорость страницы

Гугл говорит:

Процесс сканирования Google ограничивается такими факторами, как пропускная способность, время и количество доступных экземпляров Googlebot. Обеспечив быструю обработку запросов вашим сервером, вы сможете обеспечить более полное сканирование страниц вашего веб-сайта Google.

Использование рендеринга на стороне сервера действительно является разумным шагом для повышения скорости загрузки страницы, однако крайне важно убедиться, что ваши основные веб-показатели точно настроены, особенно время ответа сервера.

5. Позаботьтесь о своих внутренних ссылках

Когда Google сканирует веб-страницу, он определяет уникальные URL-адреса внутри нее, рассматривая каждый отдельный URL-адрес как отдельный объект или страницу, которая индивидуально индексируется сканерами поисковой системы.

Чтобы обеспечить единообразие на вашем сайте, направьте все внутренние ссылки в навигации (и в других местах) на версию вашей веб-страницы с «www». Это особенно актуально при ссылках на страницы, которые также доступны без www. Другими словами, если к странице можно получить доступ и как «www.example.com», и как «example.com», убедитесь, что они указывают друг на друга, причем одна из них является версией «www», а другая — ее аналогом.

Частой ошибкой, на которую следует обратить внимание, является забывание включить закрывающую косую черту в URL-адреса. Чтобы обеспечить согласованность, всегда не забывайте добавлять косую черту как к внешним, так и к внутренним URL-адресам, которые вы используете.

//www.example.com/sample-page» на «https://www.example.com/sample-page/» может предотвратить двойное сканирование одного URL-адреса. Это связано с тем, что поисковые системы могут рассматривать две версии как отдельные URL-адреса и сканировать их отдельно.

Важно помнить, что на ваших веб-страницах нет неработающих внутренних ссылок, поскольку они могут потреблять ваш краулинговый бюджет и приводить к ошибкам 404. Проще говоря, важно убедиться, что все ссылки на вашем сайте ведут на рабочие страницы, чтобы не тратить зря время поисковых ботов и не разочаровывать пользователей.

И если этого было недостаточно, они еще и навредили вашему пользовательскому опыту!

В данном случае я опять же за использование инструмента для аудита сайта.

Эти инструменты — WebSite Auditor, Screaming Frog, Lumar, Oncrawl и SE Ranking — являются отличными вариантами для проведения тщательного анализа или аудита веб-сайтов.

6. Обновите карту сайта

Опять же, позаботиться о вашей XML-карте сайта — это действительно беспроигрышный вариант.

Ботам будет намного лучше и легче понять, куда ведут внутренние ссылки.

Используйте только те URL-адреса, которые являются каноническими для вашей карты сайта.

Также убедитесь, что он соответствует последней загруженной версии robots.txt и загружается быстро.

7. Внедрите код состояния 304.

Как эксперт по SEO, я бы объяснил, что когда робот Googlebot посещает веб-страницу (URL), он включает заголовок «If-Modified-Since» с датой последнего посещения этой конкретной страницы. Эта дополнительная информация помогает системе определить, был ли обновлен контент с момента предыдущего сканирования.

Если содержимое вашей веб-страницы не изменилось с даты, указанной в «If-Modified-Since», вы можете ответить кодом состояния «304 Not Modified», не предоставляя никаких новых данных. Это указывает поисковым системам, что содержимое страницы не было обновлено, что позволяет роботу Googlebot использовать ранее сохраненную версию при следующем посещении.

9 советов по оптимизации бюджета сканирования для SEO

Однако при реализации кода состояния 304 есть предостережение, на которое указал Гэри Иллис.

9 советов по оптимизации бюджета сканирования для SEO

Будьте осторожны: пустые страницы, возвращаемые серверами со статусом 200 в результате ошибок сервера, могут помешать веб-сканерам повторно посещать их, что потенциально может вызвать постоянные проблемы при индексации сайта.

8. Теги Hreflang жизненно важны

Чтобы анализировать различные версии ваших веб-страниц, адаптированные для конкретных регионов, важно использовать теги hreflang. Таким образом, вы можете эффективно информировать Google о различных локализованных версиях ваших страниц.

Первоначально обязательно включите в заголовок вашей веб-страницы следующее:

Чтобы указать конкретный URL-адрес, рекомендуется использовать элемент «». Это позволяет указать разные языковые или региональные варианты одной и той же веб-страницы.

9. Мониторинг и обслуживание

Чтобы следить за необычными действиями сканирования и устранять возможные проблемы, регулярно просматривайте журналы своего сервера и отчет «Статистика сканирования» в консоли поиска Google.

В большинстве случаев, если вы наблюдаете повторяющиеся всплески ошибок 404, это либо связано с проблемой бесконечных областей сканирования сайта (тема, которую мы рассматривали ранее), либо это может сигнализировать о других трудностях, с которыми может столкнуться ваш сайт.

9 советов по оптимизации бюджета сканирования для SEO

Зачастую вам может оказаться полезным объединить данные журналов сервера со статистикой Search Console, чтобы точно определить основную проблему.

Краткое содержание

Действительно, если вы размышляли над тем, остается ли оптимизация краулингового бюджета вашего сайта решающей, я могу вас заверить, что это определенно важно!

Понятие краулингового бюджета имеет решающее значение для каждого специалиста по SEO, который следует учитывать как сейчас, так и, вероятно, в будущем.

Вполне вероятно, что эти предложения помогут вам точно настроить бюджет сканирования и улучшить результаты SEO — просто имейте в виду, что сканирование поисковыми системами не означает, что ваши страницы будут автоматически проиндексированы.

Смотрите также

2024-09-10 13:39