Google Chrome прекращает поддержку задержки первого ввода: что это значит

Как опытный специалист по цифровому маркетингу с более чем десятилетним опытом работы за плечами, я был свидетелем эволюции показателей веб-производительности, словно молчаливый наблюдатель, наблюдающий за меняющимися тенденциями. Сегодня решение Google Chrome отказаться от первой задержки ввода (FID) и использовать взаимодействие с следующей отрисовкой (INP) в качестве основного показателя оперативности взаимодействия кажется еще одним шагом вперед в нашей цифровой одиссее.


Google Chrome официально прекратил поддержку показателя первой задержки ввода (FID), сигнализируя о сдвиге в сторону акцента на взаимодействие с следующей отрисовкой (INP) в качестве приоритета.

Рик Вискоми, который управляет взаимоотношениями с разработчиками веб-производительности в команде Chrome, подтвердил, что восприятие взаимодействия (INP) будет основным тестом, используемым для оценки скорости реагирования на взаимодействие.

Сегодняшний день: Chrome прекращает поддержку FID

Если вы все еще используете его в инструментах Chrome, ваши рабочие процессы НАРУШАТСЯ

Мы делаем ставку на INP!

— Рик Вискоми (@rick_viscomi), 10 сентября 2024 г.

Сегодняшнее объявление последовало за заменой FID на INP в качестве Core Web Vital в мае.

Следующие инструменты перестанут предоставлять данные FID в течение следующих нескольких дней:

  • Статистика PageSpeed
  • Отчет об опыте использования Chrome (CrUX)
  • веб-виталс.js
  • Расширение Web Vitals

Фон

Решение заменить FID на INP связано с ограничениями в охвате всего спектра реагирования на взаимодействие в сети.

Проще говоря, FID (первая задержка ввода) фокусируется исключительно на времени, необходимом браузеру для реакции после получения пользовательского ввода, игнорируя другие важные этапы процесса взаимодействия.

Как профессионал в области цифрового маркетинга, я предпочитаю использовать комплексный подход, охватывающий весь процесс: от отслеживания вовлеченности пользователей до мгновенной визуальной обратной связи, которую они получают на своих экранах.

Переходный период

При обновлении до версии 5.0 библиотека web-vitals.js адаптируется к модификации. Однако другие инструменты, скорее всего, перестанут предоставлять данные о задержке первого ввода (FID), если они также не будут обновлены.

Начиная с октября проект CrUX BigQuery планирует исключить поля, связанные с задержкой первого ввода (FID), из структуры своей базы данных, начиная с набора данных 202409.

Стремясь помочь разработчикам на этом переходном этапе, команда Chrome также прекращает поддержку руководства «Оптимизация FID» и вместо этого направляет пользователей к обновленным инструкциям «Оптимизация INP» для получения более эффективной помощи.

Мы также закрываем старую статью об оптимизации FID

Имея в своем распоряжении расширенные API и инструменты измерения, разумно уделить приоритетное внимание оптимизации пользовательского опыта (UX) в целом, а не просто сосредоточиться на сокращении фазы задержки ввода во взаимодействии. Это означает, что необходимо учитывать весь путь от пользовательского ввода до визуального вывода, чтобы обеспечить более плавное и эффективное взаимодействие с пользователем.

— Рик Вискоми (@rick_viscomi), 10 сентября 2024 г.

Что делать дальше

Вот несколько шагов, которые следует предпринять в свете перехода от FID к INP:

  1. Ознакомьтесь с метрикой INP, просмотрев официальную документацию на сайте web.dev. Узнайте, как INP измеряет полный жизненный цикл взаимодействия: от ввода до визуального обновления.
  2. Проверяйте текущую производительность INP вашего сайта с помощью таких инструментов, как PageSpeed ​​Insights, или служб мониторинга реальных пользователей, поддерживающих INP. Определите области, где необходимо улучшить реакцию взаимодействия.
  3. Обратитесь к руководству «Оптимизация INP» на веб-сайте web.dev, чтобы узнать о лучших практиках по уменьшению задержки ввода, оптимизации обработки событий, минимизации искажений макета и других методах улучшения INP.
  4. Обновите все инструменты мониторинга производительности или пользовательские сценарии, которые в настоящее время используют устаревшую метрику FID, чтобы использовать вместо нее INP. Пользователи web-vitals.js должны быть готовы к кардинальным изменениям в версии 5.0.
  5. Если вы используете набор данных CrUX BigQuery, запланируйте обновление конвейеров данных для обработки изменений схемы, удалив поля FID после выпуска 202409 в октябре.

Выполнив эти шаги, вы сможете обеспечить плавный переход на INP.

Смотрите также

2024-09-10 22:08

Новый WordPress 6.6.2 исправляет важную проблему с отображением

Как опытный веб-мастер с более чем десятилетним опытом работы с WordPress за плечами, я могу с уверенностью сказать, что выпуск WordPress 6.6.2 — это глоток свежего воздуха для многих из нас, кто столкнулся с проблемой специфики CSS, появившейся в версии 6.6. . Исправления в этом выпуске обслуживания не только необходимы для поддержания внешнего вида и функциональности наших сайтов, но также демонстрируют усердие и стремление сообщества WordPress к постоянному совершенствованию и совершенствованию своей платформы.


Проще говоря, версия WordPress 6.6.2 включает в себя 26 решений проблем, одно из которых решает проблему CSS, которая влияет на внешний вид сайта. В основной системе WordPress было решено около 15 проблем, а в редакторе блоков Gutenberg было внесено 11 улучшений.

Релиз обслуживания – специфика CSS

Обновления обслуживания WordPress, например, после версии 6.6, обычно не влекут за собой существенных изменений. Вместо этого они решают проблемы, которые могли возникнуть из-за появления новых функций в предыдущем основном выпуске.

Как опытный веб-мастер, я рад сообщить, что мы выпустили обновление, которое, как и его предшественники, решает интригующую проблему — проблему специфичности CSS. Эта функция была недавно представлена ​​в WordPress версии 6.6, и теперь она была усовершенствована, чтобы обеспечить более плавную работу для всех наших уважаемых пользователей.

CSS или каскадные таблицы стилей — это код, используемый для определения визуального внешнего вида веб-страницы, включая цвета, размеры, поля и интервалы. Термин «Специфичность» относится к определению того, какое правило стиля применяется к определенному элементу веб-страницы, например разделу или более мелким компонентам. Специфика CSS — это набор правил в ядре WordPress, которые решают, какое свойство CSS следует применять, когда есть неуверенность в том, какое из них использовать. Эти правила были созданы в первую очередь для того, чтобы позволить разработчикам тем легче переопределять стили WordPress по умолчанию своими собственными стилями.

Будучи профессионалом в области цифрового маркетинга, я столкнулся с проблемой при внедрении CSS-специфичности. Оказалось, что эта функция сильно повлияла на внешний вид моих веб-страниц.

Проще говоря, обновление WordPress до версии 6.6.2 решает определенные проблемы, с которыми сталкиваются издатели. Поэтому тем, кто столкнулся с проблемами, рекомендуется задуматься об установке этой последней версии.

Другие исправления

В этом обновлении вы найдете 15 исправлений, внесенных в основную структуру WordPress, и 11 исправлений, внесенных в инструмент редактирования блоков Гутенберга.

Примеры исправлений ядра, включенных в служебную версию:

Пример исправлений в Гутенберге:

Прием 6.6.2

Издателям, которым еще предстоит столкнуться с этим обновлением, не нужно беспокоиться об обновлении. Предварительные отзывы частной группы WordPress в Facebook, в частности ее администратора Дэвида Маккана, были положительными. Он утверждает, что внедрил его на десяти сайтах без каких-либо проблем (вам необходимо присоединиться к группе Facebook, чтобы получить доступ к обсуждению)).

Прочтите официальное объявление WordPress

WordPress 6.6.2 Сопровождающая версия

Смотрите также

2024-09-10 21:38

9 советов по оптимизации бюджета сканирования для SEO

Как опытный специалист по SEO с многолетним опытом работы в цифровой среде за плечами, я искренне поддерживаю использование инструментов аудита веб-сайтов, таких как WebSite Auditor, Screaming Frog, Lumar, Oncrawl или SE Ranking, для обеспечения бесперебойного взаимодействия с пользователем и оптимизации производительности вашего сайта.


Идея краулингового бюджета относится к важнейшему принципу SEO, применимому к обширным веб-сайтам, содержащим миллионы страниц, а также к небольшим сайтам с тысячами ежедневно меняющихся страниц. Все дело в том, как боты поисковых систем распределяют свое время и ресурсы при сканировании этих веб-сайтов.

Примером веб-сайта с миллионами страниц может служить eBay.com, а веб-сайтами с десятками тысяч страниц, которые часто обновляются, могут быть веб-сайты с обзорами пользователей и рейтингами, подобные Gamespot.com.

SEO-специалист обычно сталкивается с многочисленными задачами и проблемами, из-за чего процесс сканирования веб-сайта иногда задерживается или ему уделяется меньше внимания.

Но краулинговый бюджет можно и нужно оптимизировать.

В этой статье вы узнаете:

  • Как улучшить свой краулинговый бюджет.
  • Изучите изменения в краулинговом бюджете как концепции за последние пару лет.

Если ваш сайт содержит всего несколько сотен страниц, но они не индексируются, мы советуем вам взглянуть на нашу статью, в которой обсуждаются распространенные причины проблем с индексацией. Вряд ли проблема кроется в краулинговом бюджете, если на вашем сайте такое небольшое количество страниц.

Что такое краулинговый бюджет?

Термин «бюджет сканирования» описывает, сколько веб-страниц исследуется роботами поисковых систем (такими как пауки и боты) в течение определенного периода.

Существуют определенные соображения, влияющие на бюджет сканирования, например, предварительный баланс между попытками робота Googlebot не перегружать ваш сервер и общим желанием Google сканировать ваш домен.

Улучшение оптимизации бюджета сканирования включает в себя реализацию стратегий, направленных на повышение эффективности и скорости доступа роботов поисковых систем к вашим веб-страницам, тем самым повышая частоту их посещений.

Почему важна оптимизация бюджета сканирования?

Первоначальное появление в результатах поиска начинается с изучения или «сканирования» поисковыми системами. Если страница не сканируется, ни новые, ни обновленные страницы не будут включены в базу данных поисковой системы.

Частое посещение сканерами ваших веб-страниц означает более быстрое включение обновлений и вновь созданных страниц в индекс поисковой системы. Это, в свою очередь, сокращает время, необходимое для того, чтобы ваши стратегии оптимизации стали эффективными и повлияли на ваш поисковый рейтинг.

Индекс Google охватывает бесчисленные миллиарды веб-страниц, и это число ежедневно увеличивается. Чтобы сэкономить на затратах, связанных со сканированием каждого URL-адреса, по мере создания большего количества сайтов, поисковые системы стремятся замедлить скорость сканирования URL-адресов и выборочно включать их в свои индексы, тем самым минимизируя затраты на вычисления и хранение.

Растет ощущение необходимости сократить выбросы углекислого газа из-за изменения климата, и у Google есть комплексный план по повышению устойчивости и минимизации выбросов углекислого газа в долгосрочной перспективе.

Итак, давайте обсудим, как вы можете оптимизировать свой краулинговый бюджет в современном мире.

1. Запретить сканирование URL-адресов действий в robots.txt

Это может стать шоком, но Google подтвердил, что запрет на индексацию определенных URL-адресов не повлияет на скорость сканирования вашего сайта. Другими словами, Google продолжит исследовать ваш сайт с той же скоростью. Однако вы можете задаться вопросом, почему эта тема актуальна здесь. Причина в том, что понимание того, как работает краулинговый бюджет, может помочь оптимизировать наиболее важные для вас страницы вашего сайта, обеспечивая их тщательное исследование поисковыми роботами Google.

Если вы ограничиваете несущественные URL-адреса, по сути, вы просите Google чаще сканировать ценные разделы вашего сайта.

Если ваш сайт включает встроенную функцию поиска с использованием таких запросов, как /search/term=Google, поисковые системы, такие как Google, будут индексировать эти URL-адреса, когда они будут найдены в ссылках в других местах сети.

Аналогичным образом на веб-сайте электронной коммерции вы можете встретить URL-адреса, созданные с использованием фасетных фильтров, например: /filter-options/color/red/and/filter-options/size/small

Эти параметры, обнаруженные в строках запроса, могут генерировать бесконечное количество различных версий URL-адресов, которые Google может попытаться изучить в процессе сканирования веб-страниц.

По сути, в этих URL-адресах отсутствует эксклюзивный контент, и они в основном сортируют уже имеющиеся у вас данные, что полезно для взаимодействия с пользователем, но не идеально для веб-сканеров, таких как Googlebot.

Ограничение сканирования определенных URL-адресов Google с помощью инструкций robots.txt может помочь оптимизировать бюджет сканирования и сделать его более эффективным. Таким образом, Google будет расставлять приоритеты и направлять свои ресурсы сканирования на более полезные страницы вашего веб-сайта, тем самым улучшая общую возможность сканирования вашего сайта.

Вот как заблокировать внутренний поиск, фасеты или любые URL-адреса, содержащие строки запроса, через robots.txt:

Disallow: *?*s=*
Disallow: *?*color=*
Disallow: *?*size=*

Каждое правило запрещает любой URL-адрес со своим конкретным параметром запроса, независимо от каких-либо дополнительных параметров, которые он может иметь.

  • * (звездочка) соответствует любой последовательности символов (включая отсутствие).
  • ? (Знак вопроса): указывает начало строки запроса.
  • =*: Соответствует знаку = и всем последующим символам.

Использование этого метода предотвращает повторение, делая определенные URL-адреса с указанными параметрами запроса невидимыми для сканеров поисковых систем.

Имейте в виду, что при использовании этого метода любые URL-адреса с указанными символами будут запрещены независимо от их местоположения. Это может непреднамеренно заблокировать определенные URL-адреса. Например, параметр запроса, состоящий из одного символа, может запретить доступ ко всем URL-адресам, содержащим этот символ, даже если он находится в другой части URL-адреса. Если вы хотите запретить URL-адреса с определенным одним символом, рассмотрите возможность использования вместо этого набора правил: таким образом вы можете специально настроить таргетинг на символы, которые хотите запретить, без потенциальной блокировки других действительных URL-адресов.

Disallow: *?s=*
Disallow: *&s=*

Критическое изменение заключается в том, что между символами «?» и «s» нет звездочки «*». Этот метод позволяет запретить определенные точные параметры «s» в URL-адресах, но вам придется добавлять каждый вариант индивидуально.

Включите эти рекомендации в свои уникальные сценарии для любых URL-адресов, которые не предлагают эксклюзивный контент. Например, если ваши кнопки списка желаний ведут к URL-адресам типа «?add_to_wishlist=1», вам следует запретить доступ к ним с помощью правила: Исключить или заблокировать использование таких URL-адресов.

Disallow: /*?*add_to_wishlist=*

Это простой и естественный первый и самый важный шаг, рекомендованный Google.

Запретив учитывать определенные параметры, Google удалось уменьшить количество сканируемых страниц с нерелевантными строками запросов. Это произошло потому, что Google сталкивался с многочисленными URL-адресами с разными значениями параметров, которые приводили к несуществующим или бессмысленным страницам.

Иногда поисковые системы потенциально могут сканировать и индексировать URL-адреса, которые должны быть запрещены. Это может показаться необычным, но обычно не стоит беспокоиться. Чаще всего это указывает на то, что другие сайты ссылаются на эти конкретные URL-адреса.

Google подтвердил, что в этих случаях активность сканирования со временем снизится.

Избегайте применения «мета-тегов noindex» в целях блокировки, так как роботу Googlebot необходимо сделать запрос на просмотр тега, что неоправданно расходует ваш краулинговый бюджет, поскольку он не сразу распознает блокировку. Вместо этого рассмотрите возможность использования соответствующих кодов ответов HTTP или файла robots.txt для эффективного управления индексированием.

1.2. Запретить URL-адреса неважных ресурсов в файле Robots.txt

Как опытный веб-мастер, я бы рекомендовал предпринять дополнительный шаг для защиты вашего сайта: заблокировать все внешние файлы JavaScript, которые не влияют на структуру или внешний вид сайта. Это помогает гарантировать, что в вашем домене выполняются только нужные сценарии.

Например, если у вас есть файлы JavaScript, отвечающие за открытие изображений во всплывающем окне при нажатии пользователем, вы можете запретить их использование в файле robots.txt, чтобы Google не тратил бюджет на их сканирование.

Вот пример правила запрета файла JavaScript:

Запретить: /assets/js/popup.js

Дополнительная иллюстрация включает интерфейсы REST API для отправки форм. Предположим, у вас есть форма, которая указывает на URL-адрес «/api/form-submissions». Этот URL-адрес служит местом назначения, куда будут отправлены отправленные данные из вашей формы.

Вполне возможно, что эти URL-адреса могут быть проиндексированы Google. Однако они не имеют ничего общего с аспектом отображения, поэтому было бы разумно запретить к ним доступ.

Запретить: /rest-api/form-submissions/

Вместо этого важно убедиться, что конечные точки REST API, используемые автономной CMS, не заблокированы, поскольку они обычно используются для динамической загрузки контента.

Короче говоря, посмотрите на все, что не связано с рендерингом, и заблокируйте их.

2. Следите за цепочками перенаправления

Вместо прямого пути цепное перенаправление происходит, когда несколько веб-адресов ведут к другим адресам, которые продолжают перенаправляться. Если этот процесс повторяется слишком часто, сканеры поисковых систем могут отказаться от попыток добраться до конечного пункта назначения до того, как они туда доберутся.

Один URL-адрес ведет к другому, который затем ведет к третьему, и эта закономерность может продолжаться. Стоит отметить, что эти цепочки иногда могут создавать бесконечные циклы, в которых URL-адреса продолжают перенаправляться друг на друга.

Избегать этого — разумный подход к здоровью веб-сайта.

В идеале вы могли бы избежать наличия хотя бы одной цепочки перенаправлений на всем вашем домене.

Однако решение проблем с перенаправлением на большом сайте может оказаться сложной задачей из-за появления как 301, так и 302 перенаправлений. К сожалению, исправить перенаправления, вызванные входящими ссылками, сложно, поскольку нам не хватает контроля над внешними веб-сайтами.

Несколько случайных перенаправлений не вызовут серьезных проблем, но расширенные цепочки или циклы могут привести к осложнениям.

Чтобы определить цепочки перенаправления для устранения неполадок, рассмотрите возможность использования инструментов SEO, таких как Screaming Frog, Lumar или Oncrawl. Эти удобные инструменты помогут вам найти цепи.

Когда вы сталкиваетесь с цепочкой, оптимальным решением будет исключить все URL-адреса от начальной страницы до последней. Например, если ваша цепочка охватывает семь страниц, вместо этого напрямую перенаправьте первый URL-адрес на седьмой.

Как опытный веб-мастер, я хотел бы поделиться практическим советом по минимизации цепочек перенаправлений: вместо того, чтобы полагаться на перенаправления, обновите свою систему управления контентом (CMS), указав конечные пункты назначения внутренних URL-адресов, которые в настоящее время перенаправляют. Эта простая настройка может значительно улучшить производительность сайта и удобство для пользователей.

В зависимости от используемой вами системы управления контентом (CMS) могут применяться различные методы; например, вы можете использовать определенный плагин в среде WordPress. Однако если вы работаете с другой CMS, вам может потребоваться индивидуальное решение или обратитесь за помощью к своей команде разработчиков.

3. Используйте рендеринг на стороне сервера (HTML), когда это возможно.

Говоря о Google, его инструмент веб-сканирования работает с самой последней версией Chrome, гарантируя, что он может легко воспринимать контент, динамически генерируемый с помощью JavaScript, без каких-либо проблем.

Имейте в виду, что минимизация вычислительных затрат имеет решающее значение для Google, поскольку они стремятся сделать эти затраты настолько низкими, насколько это возможно.

Зачем усложнять работу Google, генерируя контент страниц с помощью JavaScript (на стороне клиента), тем самым увеличивая вычислительные затраты Google на сканирование ваших веб-страниц?

По этой причине, когда это возможно, вам следует придерживаться HTML.

Таким образом, вы не ухудшите свои шансы при использовании любого сканера.

4. Улучшите скорость страницы

Гугл говорит:

Процесс сканирования Google ограничивается такими факторами, как пропускная способность, время и количество доступных экземпляров Googlebot. Обеспечив быструю обработку запросов вашим сервером, вы сможете обеспечить более полное сканирование страниц вашего веб-сайта Google.

Использование рендеринга на стороне сервера действительно является разумным шагом для повышения скорости загрузки страницы, однако крайне важно убедиться, что ваши основные веб-показатели точно настроены, особенно время ответа сервера.

5. Позаботьтесь о своих внутренних ссылках

Когда Google сканирует веб-страницу, он определяет уникальные URL-адреса внутри нее, рассматривая каждый отдельный URL-адрес как отдельный объект или страницу, которая индивидуально индексируется сканерами поисковой системы.

Чтобы обеспечить единообразие на вашем сайте, направьте все внутренние ссылки в навигации (и в других местах) на версию вашей веб-страницы с «www». Это особенно актуально при ссылках на страницы, которые также доступны без www. Другими словами, если к странице можно получить доступ и как «www.example.com», и как «example.com», убедитесь, что они указывают друг на друга, причем одна из них является версией «www», а другая — ее аналогом.

Частой ошибкой, на которую следует обратить внимание, является забывание включить закрывающую косую черту в URL-адреса. Чтобы обеспечить согласованность, всегда не забывайте добавлять косую черту как к внешним, так и к внутренним URL-адресам, которые вы используете.

//www.example.com/sample-page» на «https://www.example.com/sample-page/» может предотвратить двойное сканирование одного URL-адреса. Это связано с тем, что поисковые системы могут рассматривать две версии как отдельные URL-адреса и сканировать их отдельно.

Важно помнить, что на ваших веб-страницах нет неработающих внутренних ссылок, поскольку они могут потреблять ваш краулинговый бюджет и приводить к ошибкам 404. Проще говоря, важно убедиться, что все ссылки на вашем сайте ведут на рабочие страницы, чтобы не тратить зря время поисковых ботов и не разочаровывать пользователей.

И если этого было недостаточно, они еще и навредили вашему пользовательскому опыту!

В данном случае я опять же за использование инструмента для аудита сайта.

Эти инструменты — WebSite Auditor, Screaming Frog, Lumar, Oncrawl и SE Ranking — являются отличными вариантами для проведения тщательного анализа или аудита веб-сайтов.

6. Обновите карту сайта

Опять же, позаботиться о вашей XML-карте сайта — это действительно беспроигрышный вариант.

Ботам будет намного лучше и легче понять, куда ведут внутренние ссылки.

Используйте только те URL-адреса, которые являются каноническими для вашей карты сайта.

Также убедитесь, что он соответствует последней загруженной версии robots.txt и загружается быстро.

7. Внедрите код состояния 304.

Как эксперт по SEO, я бы объяснил, что когда робот Googlebot посещает веб-страницу (URL), он включает заголовок «If-Modified-Since» с датой последнего посещения этой конкретной страницы. Эта дополнительная информация помогает системе определить, был ли обновлен контент с момента предыдущего сканирования.

Если содержимое вашей веб-страницы не изменилось с даты, указанной в «If-Modified-Since», вы можете ответить кодом состояния «304 Not Modified», не предоставляя никаких новых данных. Это указывает поисковым системам, что содержимое страницы не было обновлено, что позволяет роботу Googlebot использовать ранее сохраненную версию при следующем посещении.

Однако при реализации кода состояния 304 есть предостережение, на которое указал Гэри Иллис.

Будьте осторожны: пустые страницы, возвращаемые серверами со статусом 200 в результате ошибок сервера, могут помешать веб-сканерам повторно посещать их, что потенциально может вызвать постоянные проблемы при индексации сайта.

8. Теги Hreflang жизненно важны

Чтобы анализировать различные версии ваших веб-страниц, адаптированные для конкретных регионов, важно использовать теги hreflang. Таким образом, вы можете эффективно информировать Google о различных локализованных версиях ваших страниц.

Первоначально обязательно включите в заголовок вашей веб-страницы следующее:

Чтобы указать конкретный URL-адрес, рекомендуется использовать элемент «». Это позволяет указать разные языковые или региональные варианты одной и той же веб-страницы.

9. Мониторинг и обслуживание

Чтобы следить за необычными действиями сканирования и устранять возможные проблемы, регулярно просматривайте журналы своего сервера и отчет «Статистика сканирования» в консоли поиска Google.

В большинстве случаев, если вы наблюдаете повторяющиеся всплески ошибок 404, это либо связано с проблемой бесконечных областей сканирования сайта (тема, которую мы рассматривали ранее), либо это может сигнализировать о других трудностях, с которыми может столкнуться ваш сайт.

Зачастую вам может оказаться полезным объединить данные журналов сервера со статистикой Search Console, чтобы точно определить основную проблему.

Краткое содержание

Действительно, если вы размышляли над тем, остается ли оптимизация краулингового бюджета вашего сайта решающей, я могу вас заверить, что это определенно важно!

Понятие краулингового бюджета имеет решающее значение для каждого специалиста по SEO, который следует учитывать как сейчас, так и, вероятно, в будущем.

Вполне вероятно, что эти предложения помогут вам точно настроить бюджет сканирования и улучшить результаты SEO — просто имейте в виду, что сканирование поисковыми системами не означает, что ваши страницы будут автоматически проиндексированы.

Смотрите также

2024-09-10 13:39

SEO в эпоху искусственного интеллекта: создайте лучшие практики искусственного интеллекта

Как опытный веб-мастер с более чем двадцатилетним опытом работы в постоянно меняющемся цифровом мире, я могу с уверенностью сказать, что ИИ стал слоном в комнате, когда дело доходит до SEO. Это не просто настройка алгоритма или новая причудливая функция; это сейсмический сдвиг, который переопределяет нашу отрасль и заставляет нас адаптироваться или остаться позади.


Хорошо это или плохо, но ИИ стал доминирующей силой в SEO.

SEO-специалисты уже довольно давно занимаются искусственным интеллектом в алгоритмах Google. Однако в последнее время искусственный интеллект занял центральное место в сфере цифрового маркетинга. Крупные технологические компании быстро создают эту технологию и предоставляют ее пользователям, стремясь оставаться инновационными и дальновидными.

В результате мы стали свидетелями многочисленных запусков ИИ и генеративного ИИ, таких как чат-боты LLM, интеграция чат-ботов в поисковые системы, а также инструменты поиска и исследования на базе ИИ.

ИИ грозит стать одной из самых разрушительных сил в SEO и цифровом маркетинге.

Свежая электронная публикация SEJ углубляется в последние хроники искусственного интеллекта (ИИ) и достижения в области поисковой и маркетинговой индустрии. Кроме того, он предлагает дорожные карты и профессиональную информацию по интеграции ИИ в ваши стратегические планы и оперативные процедуры.

Загрузите SEO In The Age Of AI, чтобы расширить знания, изложенные в этом посте.

SEO-специалисты должны разработать лучшие практики искусственного интеллекта

Как специалисту по SEO, мне крайне важно понимать тонкости технологий искусственного интеллекта, которые лежат в основе современных поисковых сред, особенно тех, которые оснащены удобными для пользователя функциями искусственного интеллекта. Чтобы добиться успеха в этой конкурентной среде, я должен ознакомиться с различными способами эффективного взаимодействия и сотрудничества с этими передовыми системами.

  • Оптимизация алгоритмов поиска на основе искусственного интеллекта.
  • Создание ключевых слов и стратегий поиска, учитывающих функции генеративного поиска ИИ.
  • Использование инструментов искусственного интеллекта для повышения производительности.
  • Понимание того, где ИИ нуждается в человеческом руководстве и какие задачи ему не следует делегировать.
  • Отличие вашего бренда и контента от конкурентов, где инструменты искусственного интеллекта снизили затраты и барьеры для масштабного маркетинга.

Разработка четких рекомендаций относительно вашего подхода и связи с ИИ, включая генеративный ИИ, поможет обеспечить ваш успех по мере развития технологий и изменения предпочтений пользователей.

Оглянитесь назад на развитие искусственного интеллекта, чтобы предсказать будущие тенденции

Рассмотрите возможность изучения постоянного влияния искусственного интеллекта (ИИ) на поисковую оптимизацию (SEO), изучив последние выпуски и обновления продуктов Google с использованием ИИ. Это включает в себя наблюдение за изменениями в функциях и алгоритмах страницы результатов поисковой системы (SERP), чтобы предсказать, как они могут развиваться.

Посмотрите, как ИИ вписывается в эти разработки, чтобы предсказать, как может измениться поиск.

В электронной книге собраны примерно годовые отчеты SEJ о событиях в отрасли и обновлениях Google, охватывающие испытания и запуски продуктов, отклики общественности и исследования последствий этих событий.

Важным аспектом, на который следует обратить внимание, является прогресс Google в создании функций на странице результатов поисковой системы (SERP), которые предлагают ответы непосредственно пользователям, устраняя необходимость посещения сайта. Такие функции, как ответы, генерируемые искусственным интеллектом, могут создавать проблемы при привлечении трафика для конкретных поисковых запросов.

Хотя вы можете использовать эти запросы, очень важно точно определить намерения пользователя, стоящие за вашим целевым поиском, и разработать стратегии, адаптированные для обеспечения безопасности функций страницы результатов поисковой системы (SERP).

Изучите историю применения ИИ в SEO и спрогнозируйте, что будет дальше, загрузив отчет.

SEO-специалисты должны сосредоточиться на авторитете, бренде и доверии

Рассмотрение ИИ как части планирования вашего контента и структуры может помочь сделать ваше присутствие отличительным на различных этапах взаимодействия с пользователем.

Как эксперт по SEO, я твердо верю, что отличие вашего бренда от автоматизированного маркетинга путем придания ему подлинной человечности — это эффективная стратегия привлечения внимания пользователей. Создание контента со структурой, совместимой с искусственным интеллектом, но ориентированной на человека, позволяет мне доставлять индивидуальные сообщения соответствующей аудитории в подходящие моменты.

В электронной книге собраны идеи участников SEJ, посвященные тому, как встраивание ИИ в вашу контент-стратегию выходит за рамки использования его для создания контента для вас.

Узнайте, как завоевать доверие и авторитет в эпоху искусственного интеллекта, благодаря советам ведущих экспертов.

Узнайте, в чем лучше всего справляется генеративный искусственный интеллект

Чтобы эффективно использовать генеративный ИИ в своих процессах, важно понимать его механику и сильные стороны.

Использование инструментов генеративного искусственного интеллекта позволяет вам быстро устанавливать связи между понятиями и терминами, анализировать большие объемы данных для выявления закономерностей, а также развивать и расширять свои идеи — и все это при выполнении множества дополнительных задач.

Генеративное использование ИИ может значительно ускорить выполнение некоторых задач, однако поддержание точности остается проблемой. Поэтому он наиболее эффективен для задач, которые имеют встроенную избыточность или требуют проверки человеком для обеспечения точности.

Например, вы можете использовать генеративный искусственный интеллект, чтобы помочь с внутренними ссылками. Он идеально подходит для быстрой оценки веб-страниц сайта и предложения значимых связей между этими страницами. После этого человек может проверить рекомендации и добавить ссылки, которые кажутся логичными.

В электронной книге «SEO в эпоху искусственного интеллекта» мы собрали несколько выдающихся примеров, демонстрирующих, как инструменты искусственного интеллекта, предназначенные для генерации, могут улучшить различные рабочие процессы.

Чтобы узнать обо всем этом и многом другом, загрузите копию книги «SEO In The Age Of AI».

Смотрите также

2024-09-10 12:08

Meta объявляет об обновлениях бизнес-инструментов, влияющих на рекламодателей

Как опытный специалист по цифровому маркетингу с более чем десятилетним опытом работы в постоянно меняющемся ландшафте онлайн-рекламы, я готовлюсь к новой волне корректировок в свете последнего объявления Meta об ограничении доступа к данным в их бизнес-инструментах. Это не первый случай, когда платформы отдают приоритет конфиденциальности, и уж точно не последний.


Meta наложила ограничения на доступ к данным в своих бизнес-инструментах, что может повлиять или временно остановить работу индивидуализированных аудиторий и наборов объявлений. В ответ рекламодателям следует изменить свои методы отслеживания и предоставления данных.

Как эксперт по SEO, я хотел бы обратить ваше внимание на некоторые предстоящие изменения, которые Meta планирует внести в свои бизнес-инструменты. Эти обновления могут изменить способ использования этих платформ в маркетинговых целях. Оставайтесь с нами для получения дополнительной информации и стратегий для соответствующей адаптации.

Ключевые изменения

В электронном письме рекламодателям было указано, что Meta намерена автономно ограничивать определенные типы данных, такие как разделы веб-адресов (URL-адреса) и пользовательские параметры.

Компания поясняет, что данное действие сводит к минимуму риск раскрытия информации, не разрешенной условиями ее Соглашения о Business Tool.

Потенциальное влияние на рекламодателей

В электронном письме описывается несколько способов, которыми эти изменения могут повлиять на бизнес:

  1. Пользовательские аудитории могут потребовать корректировки, если они используют правила, включающие данные, которые будут ограничены.
  2. Некоторые группы объявлений могут быть приостановлены, если индивидуализированная аудитория уменьшится или ее больше нельзя будет обновлять.
  3. Мониторинг Events Manager изменится: ограниченные данные больше не будут включаться в отчеты.

Рекомендации Меты

Если ваша реклама на Meta была временно приостановлена, рассмотрите возможность изменения своей индивидуальной аудитории или создания новой, используя вместо этого настройки по умолчанию.

Компания рекомендует компаниям просмотреть обзор Events Manager, чтобы определить, на какие данные могут повлиять эти обновления.

Ответ отрасли

Нава Хопкинс, евангелист бренда Optmyzr, прокомментировала это объявление в LinkedIn.

По словам Хопкинса, обновление предполагает, что Meta больше внимания уделяет конфиденциальности пользователей, что может повлиять на их способность сообщать и нацеливать рекламу на основе взаимодействия пользователей с рекламой.

Она заявляет:

Значительное изменение в отношении метаобъявлений: не только вводятся определенные ограничения на данные, но и реклама, использующая узкоспециализированные UTM, потенциально может быть приостановлена!

Это важное напоминание о том, что Meta (Facebook/Instagram/WhatsApp) очень серьезно относится к конфиденциальности, и наша способность сообщать и настраивать таргетинг на основе просмотра/нажатия на рекламу больше не является гарантированным состоянием».

Хопкинс рекомендует рекламодателям, использующим UTM, следить за объявлениями, которые были временно приостановлены, и быть готовыми изменить критерии включения. Ей также желательно предупреждать клиентов или заинтересованные стороны, которые ожидают всеобъемлющей отчетности, о предстоящих корректировках, которые они могут ожидать.

Она добавила:

Если в вашей рекламе используются параметры отслеживания UTM, не забывайте регулярно проверять приостановленные объявления и, возможно, скорректировать или упростить включаемый вами контент.

В дальнейшем мы переходим от мира, ориентированного на «идеальную» аудиторию, к миру, который уважает конфиденциальность. Но помните: если ваши клиенты или заинтересованные стороны ожидают отчетов о производительности, основанных на традиционных методах, обязательно обновляйте их!

Хопкинс делится скриншотом электронного письма, которое она получила от Меты:

Практические шаги для бизнеса

В свете этих изменений и принимая во внимание советы Хопкинса, компании могут предпринять несколько действий:

  • Аудит UTM. Проверьте параметры отслеживания на наличие потенциально ограниченной информации.
  • Настройте оповещения о приостановке показа рекламы. Будьте в курсе затронутых кампаний.
  • Изучите альтернативы. Изучите инструменты аналитики, отвечающие требованиям конфиденциальности, за пределами экосистемы Meta.
  • Обновите отчеты. Настройте свои процессы с учетом ограниченной доступности данных.
  • Сообщайте об изменениях. Держите клиентов и команды в курсе их влияния на показатели и производительность.
  • Разработайте таргетинг с учетом конфиденциальности. Тестируйте новые стратегии, используя более широкие сегменты аудитории.
  • Будьте в курсе: регулярно проверяйте политику Meta, чтобы предвидеть будущие изменения.

Рекламодатели могут приспособиться к меняющейся среде конфиденциальности в Meta, предприняв эти действия, гарантируя бесперебойную работу своих кампаний без существенных перебоев.

Контекст

Эти изменения происходят на фоне более широкого перехода отрасли к усилению мер конфиденциальности пользователей.

Учитывая постоянное развитие цифровых платформ, рекламодателям, возможно, придется изменить свою тактику, чтобы она соответствовала обновленным правилам использования данных.

Meta еще не определила конкретную дату реализации этих модификаций. Рекламодателям рекомендуется следить за обновлениями и быть готовыми к возможным изменениям.

Смотрите также

2024-09-10 03:38