Новый WordPress 6.6.2 исправляет важную проблему с отображением

Как опытный веб-мастер с более чем десятилетним опытом работы с WordPress за плечами, я могу с уверенностью сказать, что выпуск WordPress 6.6.2 — это глоток свежего воздуха для многих из нас, кто столкнулся с проблемой специфики CSS, появившейся в версии 6.6. . Исправления в этом выпуске обслуживания не только необходимы для поддержания внешнего вида и функциональности наших сайтов, но также демонстрируют усердие и стремление сообщества WordPress к постоянному совершенствованию и совершенствованию своей платформы.


Проще говоря, версия WordPress 6.6.2 включает в себя 26 решений проблем, одно из которых решает проблему CSS, которая влияет на внешний вид сайта. В основной системе WordPress было решено около 15 проблем, а в редакторе блоков Gutenberg было внесено 11 улучшений.

Релиз обслуживания – специфика CSS

Обновления обслуживания WordPress, например, после версии 6.6, обычно не влекут за собой существенных изменений. Вместо этого они решают проблемы, которые могли возникнуть из-за появления новых функций в предыдущем основном выпуске.

Как опытный веб-мастер, я рад сообщить, что мы выпустили обновление, которое, как и его предшественники, решает интригующую проблему — проблему специфичности CSS. Эта функция была недавно представлена ​​в WordPress версии 6.6, и теперь она была усовершенствована, чтобы обеспечить более плавную работу для всех наших уважаемых пользователей.

CSS или каскадные таблицы стилей — это код, используемый для определения визуального внешнего вида веб-страницы, включая цвета, размеры, поля и интервалы. Термин «Специфичность» относится к определению того, какое правило стиля применяется к определенному элементу веб-страницы, например разделу или более мелким компонентам. Специфика CSS — это набор правил в ядре WordPress, которые решают, какое свойство CSS следует применять, когда есть неуверенность в том, какое из них использовать. Эти правила были созданы в первую очередь для того, чтобы позволить разработчикам тем легче переопределять стили WordPress по умолчанию своими собственными стилями.

Будучи профессионалом в области цифрового маркетинга, я столкнулся с проблемой при внедрении CSS-специфичности. Оказалось, что эта функция сильно повлияла на внешний вид моих веб-страниц.

Проще говоря, обновление WordPress до версии 6.6.2 решает определенные проблемы, с которыми сталкиваются издатели. Поэтому тем, кто столкнулся с проблемами, рекомендуется задуматься об установке этой последней версии.

Другие исправления

В этом обновлении вы найдете 15 исправлений, внесенных в основную структуру WordPress, и 11 исправлений, внесенных в инструмент редактирования блоков Гутенберга.

Примеры исправлений ядра, включенных в служебную версию:

Пример исправлений в Гутенберге:

Прием 6.6.2

Издателям, которым еще предстоит столкнуться с этим обновлением, не нужно беспокоиться об обновлении. Предварительные отзывы частной группы WordPress в Facebook, в частности ее администратора Дэвида Маккана, были положительными. Он утверждает, что внедрил его на десяти сайтах без каких-либо проблем (вам необходимо присоединиться к группе Facebook, чтобы получить доступ к обсуждению)).

Прочтите официальное объявление WordPress

WordPress 6.6.2 Сопровождающая версия

Смотрите также

2024-09-10 21:38

9 советов по оптимизации бюджета сканирования для SEO

Как опытный специалист по SEO с многолетним опытом работы в цифровой среде за плечами, я искренне поддерживаю использование инструментов аудита веб-сайтов, таких как WebSite Auditor, Screaming Frog, Lumar, Oncrawl или SE Ranking, для обеспечения бесперебойного взаимодействия с пользователем и оптимизации производительности вашего сайта.


Идея краулингового бюджета относится к важнейшему принципу SEO, применимому к обширным веб-сайтам, содержащим миллионы страниц, а также к небольшим сайтам с тысячами ежедневно меняющихся страниц. Все дело в том, как боты поисковых систем распределяют свое время и ресурсы при сканировании этих веб-сайтов.

Примером веб-сайта с миллионами страниц может служить eBay.com, а веб-сайтами с десятками тысяч страниц, которые часто обновляются, могут быть веб-сайты с обзорами пользователей и рейтингами, подобные Gamespot.com.

SEO-специалист обычно сталкивается с многочисленными задачами и проблемами, из-за чего процесс сканирования веб-сайта иногда задерживается или ему уделяется меньше внимания.

Но краулинговый бюджет можно и нужно оптимизировать.

В этой статье вы узнаете:

  • Как улучшить свой краулинговый бюджет.
  • Изучите изменения в краулинговом бюджете как концепции за последние пару лет.

Если ваш сайт содержит всего несколько сотен страниц, но они не индексируются, мы советуем вам взглянуть на нашу статью, в которой обсуждаются распространенные причины проблем с индексацией. Вряд ли проблема кроется в краулинговом бюджете, если на вашем сайте такое небольшое количество страниц.

Что такое краулинговый бюджет?

Термин «бюджет сканирования» описывает, сколько веб-страниц исследуется роботами поисковых систем (такими как пауки и боты) в течение определенного периода.

Существуют определенные соображения, влияющие на бюджет сканирования, например, предварительный баланс между попытками робота Googlebot не перегружать ваш сервер и общим желанием Google сканировать ваш домен.

Улучшение оптимизации бюджета сканирования включает в себя реализацию стратегий, направленных на повышение эффективности и скорости доступа роботов поисковых систем к вашим веб-страницам, тем самым повышая частоту их посещений.

Почему важна оптимизация бюджета сканирования?

Первоначальное появление в результатах поиска начинается с изучения или «сканирования» поисковыми системами. Если страница не сканируется, ни новые, ни обновленные страницы не будут включены в базу данных поисковой системы.

Частое посещение сканерами ваших веб-страниц означает более быстрое включение обновлений и вновь созданных страниц в индекс поисковой системы. Это, в свою очередь, сокращает время, необходимое для того, чтобы ваши стратегии оптимизации стали эффективными и повлияли на ваш поисковый рейтинг.

Индекс Google охватывает бесчисленные миллиарды веб-страниц, и это число ежедневно увеличивается. Чтобы сэкономить на затратах, связанных со сканированием каждого URL-адреса, по мере создания большего количества сайтов, поисковые системы стремятся замедлить скорость сканирования URL-адресов и выборочно включать их в свои индексы, тем самым минимизируя затраты на вычисления и хранение.

Растет ощущение необходимости сократить выбросы углекислого газа из-за изменения климата, и у Google есть комплексный план по повышению устойчивости и минимизации выбросов углекислого газа в долгосрочной перспективе.

Итак, давайте обсудим, как вы можете оптимизировать свой краулинговый бюджет в современном мире.

1. Запретить сканирование URL-адресов действий в robots.txt

Это может стать шоком, но Google подтвердил, что запрет на индексацию определенных URL-адресов не повлияет на скорость сканирования вашего сайта. Другими словами, Google продолжит исследовать ваш сайт с той же скоростью. Однако вы можете задаться вопросом, почему эта тема актуальна здесь. Причина в том, что понимание того, как работает краулинговый бюджет, может помочь оптимизировать наиболее важные для вас страницы вашего сайта, обеспечивая их тщательное исследование поисковыми роботами Google.

Если вы ограничиваете несущественные URL-адреса, по сути, вы просите Google чаще сканировать ценные разделы вашего сайта.

Если ваш сайт включает встроенную функцию поиска с использованием таких запросов, как /search/term=Google, поисковые системы, такие как Google, будут индексировать эти URL-адреса, когда они будут найдены в ссылках в других местах сети.

Аналогичным образом на веб-сайте электронной коммерции вы можете встретить URL-адреса, созданные с использованием фасетных фильтров, например: /filter-options/color/red/and/filter-options/size/small

Эти параметры, обнаруженные в строках запроса, могут генерировать бесконечное количество различных версий URL-адресов, которые Google может попытаться изучить в процессе сканирования веб-страниц.

По сути, в этих URL-адресах отсутствует эксклюзивный контент, и они в основном сортируют уже имеющиеся у вас данные, что полезно для взаимодействия с пользователем, но не идеально для веб-сканеров, таких как Googlebot.

Ограничение сканирования определенных URL-адресов Google с помощью инструкций robots.txt может помочь оптимизировать бюджет сканирования и сделать его более эффективным. Таким образом, Google будет расставлять приоритеты и направлять свои ресурсы сканирования на более полезные страницы вашего веб-сайта, тем самым улучшая общую возможность сканирования вашего сайта.

Вот как заблокировать внутренний поиск, фасеты или любые URL-адреса, содержащие строки запроса, через robots.txt:

Disallow: *?*s=*
Disallow: *?*color=*
Disallow: *?*size=*

Каждое правило запрещает любой URL-адрес со своим конкретным параметром запроса, независимо от каких-либо дополнительных параметров, которые он может иметь.

  • * (звездочка) соответствует любой последовательности символов (включая отсутствие).
  • ? (Знак вопроса): указывает начало строки запроса.
  • =*: Соответствует знаку = и всем последующим символам.

Использование этого метода предотвращает повторение, делая определенные URL-адреса с указанными параметрами запроса невидимыми для сканеров поисковых систем.

Имейте в виду, что при использовании этого метода любые URL-адреса с указанными символами будут запрещены независимо от их местоположения. Это может непреднамеренно заблокировать определенные URL-адреса. Например, параметр запроса, состоящий из одного символа, может запретить доступ ко всем URL-адресам, содержащим этот символ, даже если он находится в другой части URL-адреса. Если вы хотите запретить URL-адреса с определенным одним символом, рассмотрите возможность использования вместо этого набора правил: таким образом вы можете специально настроить таргетинг на символы, которые хотите запретить, без потенциальной блокировки других действительных URL-адресов.

Disallow: *?s=*
Disallow: *&s=*

Критическое изменение заключается в том, что между символами «?» и «s» нет звездочки «*». Этот метод позволяет запретить определенные точные параметры «s» в URL-адресах, но вам придется добавлять каждый вариант индивидуально.

Включите эти рекомендации в свои уникальные сценарии для любых URL-адресов, которые не предлагают эксклюзивный контент. Например, если ваши кнопки списка желаний ведут к URL-адресам типа «?add_to_wishlist=1», вам следует запретить доступ к ним с помощью правила: Исключить или заблокировать использование таких URL-адресов.

Disallow: /*?*add_to_wishlist=*

Это простой и естественный первый и самый важный шаг, рекомендованный Google.

Запретив учитывать определенные параметры, Google удалось уменьшить количество сканируемых страниц с нерелевантными строками запросов. Это произошло потому, что Google сталкивался с многочисленными URL-адресами с разными значениями параметров, которые приводили к несуществующим или бессмысленным страницам.

Иногда поисковые системы потенциально могут сканировать и индексировать URL-адреса, которые должны быть запрещены. Это может показаться необычным, но обычно не стоит беспокоиться. Чаще всего это указывает на то, что другие сайты ссылаются на эти конкретные URL-адреса.

Google подтвердил, что в этих случаях активность сканирования со временем снизится.

Избегайте применения «мета-тегов noindex» в целях блокировки, так как роботу Googlebot необходимо сделать запрос на просмотр тега, что неоправданно расходует ваш краулинговый бюджет, поскольку он не сразу распознает блокировку. Вместо этого рассмотрите возможность использования соответствующих кодов ответов HTTP или файла robots.txt для эффективного управления индексированием.

1.2. Запретить URL-адреса неважных ресурсов в файле Robots.txt

Как опытный веб-мастер, я бы рекомендовал предпринять дополнительный шаг для защиты вашего сайта: заблокировать все внешние файлы JavaScript, которые не влияют на структуру или внешний вид сайта. Это помогает гарантировать, что в вашем домене выполняются только нужные сценарии.

Например, если у вас есть файлы JavaScript, отвечающие за открытие изображений во всплывающем окне при нажатии пользователем, вы можете запретить их использование в файле robots.txt, чтобы Google не тратил бюджет на их сканирование.

Вот пример правила запрета файла JavaScript:

Запретить: /assets/js/popup.js

Дополнительная иллюстрация включает интерфейсы REST API для отправки форм. Предположим, у вас есть форма, которая указывает на URL-адрес «/api/form-submissions». Этот URL-адрес служит местом назначения, куда будут отправлены отправленные данные из вашей формы.

Вполне возможно, что эти URL-адреса могут быть проиндексированы Google. Однако они не имеют ничего общего с аспектом отображения, поэтому было бы разумно запретить к ним доступ.

Запретить: /rest-api/form-submissions/

Вместо этого важно убедиться, что конечные точки REST API, используемые автономной CMS, не заблокированы, поскольку они обычно используются для динамической загрузки контента.

Короче говоря, посмотрите на все, что не связано с рендерингом, и заблокируйте их.

2. Следите за цепочками перенаправления

Вместо прямого пути цепное перенаправление происходит, когда несколько веб-адресов ведут к другим адресам, которые продолжают перенаправляться. Если этот процесс повторяется слишком часто, сканеры поисковых систем могут отказаться от попыток добраться до конечного пункта назначения до того, как они туда доберутся.

Один URL-адрес ведет к другому, который затем ведет к третьему, и эта закономерность может продолжаться. Стоит отметить, что эти цепочки иногда могут создавать бесконечные циклы, в которых URL-адреса продолжают перенаправляться друг на друга.

Избегать этого — разумный подход к здоровью веб-сайта.

В идеале вы могли бы избежать наличия хотя бы одной цепочки перенаправлений на всем вашем домене.

Однако решение проблем с перенаправлением на большом сайте может оказаться сложной задачей из-за появления как 301, так и 302 перенаправлений. К сожалению, исправить перенаправления, вызванные входящими ссылками, сложно, поскольку нам не хватает контроля над внешними веб-сайтами.

Несколько случайных перенаправлений не вызовут серьезных проблем, но расширенные цепочки или циклы могут привести к осложнениям.

Чтобы определить цепочки перенаправления для устранения неполадок, рассмотрите возможность использования инструментов SEO, таких как Screaming Frog, Lumar или Oncrawl. Эти удобные инструменты помогут вам найти цепи.

Когда вы сталкиваетесь с цепочкой, оптимальным решением будет исключить все URL-адреса от начальной страницы до последней. Например, если ваша цепочка охватывает семь страниц, вместо этого напрямую перенаправьте первый URL-адрес на седьмой.

Как опытный веб-мастер, я хотел бы поделиться практическим советом по минимизации цепочек перенаправлений: вместо того, чтобы полагаться на перенаправления, обновите свою систему управления контентом (CMS), указав конечные пункты назначения внутренних URL-адресов, которые в настоящее время перенаправляют. Эта простая настройка может значительно улучшить производительность сайта и удобство для пользователей.

В зависимости от используемой вами системы управления контентом (CMS) могут применяться различные методы; например, вы можете использовать определенный плагин в среде WordPress. Однако если вы работаете с другой CMS, вам может потребоваться индивидуальное решение или обратитесь за помощью к своей команде разработчиков.

3. Используйте рендеринг на стороне сервера (HTML), когда это возможно.

Говоря о Google, его инструмент веб-сканирования работает с самой последней версией Chrome, гарантируя, что он может легко воспринимать контент, динамически генерируемый с помощью JavaScript, без каких-либо проблем.

Имейте в виду, что минимизация вычислительных затрат имеет решающее значение для Google, поскольку они стремятся сделать эти затраты настолько низкими, насколько это возможно.

Зачем усложнять работу Google, генерируя контент страниц с помощью JavaScript (на стороне клиента), тем самым увеличивая вычислительные затраты Google на сканирование ваших веб-страниц?

По этой причине, когда это возможно, вам следует придерживаться HTML.

Таким образом, вы не ухудшите свои шансы при использовании любого сканера.

4. Улучшите скорость страницы

Гугл говорит:

Процесс сканирования Google ограничивается такими факторами, как пропускная способность, время и количество доступных экземпляров Googlebot. Обеспечив быструю обработку запросов вашим сервером, вы сможете обеспечить более полное сканирование страниц вашего веб-сайта Google.

Использование рендеринга на стороне сервера действительно является разумным шагом для повышения скорости загрузки страницы, однако крайне важно убедиться, что ваши основные веб-показатели точно настроены, особенно время ответа сервера.

5. Позаботьтесь о своих внутренних ссылках

Когда Google сканирует веб-страницу, он определяет уникальные URL-адреса внутри нее, рассматривая каждый отдельный URL-адрес как отдельный объект или страницу, которая индивидуально индексируется сканерами поисковой системы.

Чтобы обеспечить единообразие на вашем сайте, направьте все внутренние ссылки в навигации (и в других местах) на версию вашей веб-страницы с «www». Это особенно актуально при ссылках на страницы, которые также доступны без www. Другими словами, если к странице можно получить доступ и как «www.example.com», и как «example.com», убедитесь, что они указывают друг на друга, причем одна из них является версией «www», а другая — ее аналогом.

Частой ошибкой, на которую следует обратить внимание, является забывание включить закрывающую косую черту в URL-адреса. Чтобы обеспечить согласованность, всегда не забывайте добавлять косую черту как к внешним, так и к внутренним URL-адресам, которые вы используете.

//www.example.com/sample-page» на «https://www.example.com/sample-page/» может предотвратить двойное сканирование одного URL-адреса. Это связано с тем, что поисковые системы могут рассматривать две версии как отдельные URL-адреса и сканировать их отдельно.

Важно помнить, что на ваших веб-страницах нет неработающих внутренних ссылок, поскольку они могут потреблять ваш краулинговый бюджет и приводить к ошибкам 404. Проще говоря, важно убедиться, что все ссылки на вашем сайте ведут на рабочие страницы, чтобы не тратить зря время поисковых ботов и не разочаровывать пользователей.

И если этого было недостаточно, они еще и навредили вашему пользовательскому опыту!

В данном случае я опять же за использование инструмента для аудита сайта.

Эти инструменты — WebSite Auditor, Screaming Frog, Lumar, Oncrawl и SE Ranking — являются отличными вариантами для проведения тщательного анализа или аудита веб-сайтов.

6. Обновите карту сайта

Опять же, позаботиться о вашей XML-карте сайта — это действительно беспроигрышный вариант.

Ботам будет намного лучше и легче понять, куда ведут внутренние ссылки.

Используйте только те URL-адреса, которые являются каноническими для вашей карты сайта.

Также убедитесь, что он соответствует последней загруженной версии robots.txt и загружается быстро.

7. Внедрите код состояния 304.

Как эксперт по SEO, я бы объяснил, что когда робот Googlebot посещает веб-страницу (URL), он включает заголовок «If-Modified-Since» с датой последнего посещения этой конкретной страницы. Эта дополнительная информация помогает системе определить, был ли обновлен контент с момента предыдущего сканирования.

Если содержимое вашей веб-страницы не изменилось с даты, указанной в «If-Modified-Since», вы можете ответить кодом состояния «304 Not Modified», не предоставляя никаких новых данных. Это указывает поисковым системам, что содержимое страницы не было обновлено, что позволяет роботу Googlebot использовать ранее сохраненную версию при следующем посещении.

Однако при реализации кода состояния 304 есть предостережение, на которое указал Гэри Иллис.

Будьте осторожны: пустые страницы, возвращаемые серверами со статусом 200 в результате ошибок сервера, могут помешать веб-сканерам повторно посещать их, что потенциально может вызвать постоянные проблемы при индексации сайта.

8. Теги Hreflang жизненно важны

Чтобы анализировать различные версии ваших веб-страниц, адаптированные для конкретных регионов, важно использовать теги hreflang. Таким образом, вы можете эффективно информировать Google о различных локализованных версиях ваших страниц.

Первоначально обязательно включите в заголовок вашей веб-страницы следующее:

Чтобы указать конкретный URL-адрес, рекомендуется использовать элемент «». Это позволяет указать разные языковые или региональные варианты одной и той же веб-страницы.

9. Мониторинг и обслуживание

Чтобы следить за необычными действиями сканирования и устранять возможные проблемы, регулярно просматривайте журналы своего сервера и отчет «Статистика сканирования» в консоли поиска Google.

В большинстве случаев, если вы наблюдаете повторяющиеся всплески ошибок 404, это либо связано с проблемой бесконечных областей сканирования сайта (тема, которую мы рассматривали ранее), либо это может сигнализировать о других трудностях, с которыми может столкнуться ваш сайт.

Зачастую вам может оказаться полезным объединить данные журналов сервера со статистикой Search Console, чтобы точно определить основную проблему.

Краткое содержание

Действительно, если вы размышляли над тем, остается ли оптимизация краулингового бюджета вашего сайта решающей, я могу вас заверить, что это определенно важно!

Понятие краулингового бюджета имеет решающее значение для каждого специалиста по SEO, который следует учитывать как сейчас, так и, вероятно, в будущем.

Вполне вероятно, что эти предложения помогут вам точно настроить бюджет сканирования и улучшить результаты SEO — просто имейте в виду, что сканирование поисковыми системами не означает, что ваши страницы будут автоматически проиндексированы.

Смотрите также

2024-09-10 13:39

SEO в эпоху искусственного интеллекта: создайте лучшие практики искусственного интеллекта

Как опытный веб-мастер с более чем двадцатилетним опытом работы в постоянно меняющемся цифровом мире, я могу с уверенностью сказать, что ИИ стал слоном в комнате, когда дело доходит до SEO. Это не просто настройка алгоритма или новая причудливая функция; это сейсмический сдвиг, который переопределяет нашу отрасль и заставляет нас адаптироваться или остаться позади.


Хорошо это или плохо, но ИИ стал доминирующей силой в SEO.

SEO-специалисты уже довольно давно занимаются искусственным интеллектом в алгоритмах Google. Однако в последнее время искусственный интеллект занял центральное место в сфере цифрового маркетинга. Крупные технологические компании быстро создают эту технологию и предоставляют ее пользователям, стремясь оставаться инновационными и дальновидными.

В результате мы стали свидетелями многочисленных запусков ИИ и генеративного ИИ, таких как чат-боты LLM, интеграция чат-ботов в поисковые системы, а также инструменты поиска и исследования на базе ИИ.

ИИ грозит стать одной из самых разрушительных сил в SEO и цифровом маркетинге.

Свежая электронная публикация SEJ углубляется в последние хроники искусственного интеллекта (ИИ) и достижения в области поисковой и маркетинговой индустрии. Кроме того, он предлагает дорожные карты и профессиональную информацию по интеграции ИИ в ваши стратегические планы и оперативные процедуры.

Загрузите SEO In The Age Of AI, чтобы расширить знания, изложенные в этом посте.

SEO-специалисты должны разработать лучшие практики искусственного интеллекта

Как специалисту по SEO, мне крайне важно понимать тонкости технологий искусственного интеллекта, которые лежат в основе современных поисковых сред, особенно тех, которые оснащены удобными для пользователя функциями искусственного интеллекта. Чтобы добиться успеха в этой конкурентной среде, я должен ознакомиться с различными способами эффективного взаимодействия и сотрудничества с этими передовыми системами.

  • Оптимизация алгоритмов поиска на основе искусственного интеллекта.
  • Создание ключевых слов и стратегий поиска, учитывающих функции генеративного поиска ИИ.
  • Использование инструментов искусственного интеллекта для повышения производительности.
  • Понимание того, где ИИ нуждается в человеческом руководстве и какие задачи ему не следует делегировать.
  • Отличие вашего бренда и контента от конкурентов, где инструменты искусственного интеллекта снизили затраты и барьеры для масштабного маркетинга.

Разработка четких рекомендаций относительно вашего подхода и связи с ИИ, включая генеративный ИИ, поможет обеспечить ваш успех по мере развития технологий и изменения предпочтений пользователей.

Оглянитесь назад на развитие искусственного интеллекта, чтобы предсказать будущие тенденции

Рассмотрите возможность изучения постоянного влияния искусственного интеллекта (ИИ) на поисковую оптимизацию (SEO), изучив последние выпуски и обновления продуктов Google с использованием ИИ. Это включает в себя наблюдение за изменениями в функциях и алгоритмах страницы результатов поисковой системы (SERP), чтобы предсказать, как они могут развиваться.

Посмотрите, как ИИ вписывается в эти разработки, чтобы предсказать, как может измениться поиск.

В электронной книге собраны примерно годовые отчеты SEJ о событиях в отрасли и обновлениях Google, охватывающие испытания и запуски продуктов, отклики общественности и исследования последствий этих событий.

Важным аспектом, на который следует обратить внимание, является прогресс Google в создании функций на странице результатов поисковой системы (SERP), которые предлагают ответы непосредственно пользователям, устраняя необходимость посещения сайта. Такие функции, как ответы, генерируемые искусственным интеллектом, могут создавать проблемы при привлечении трафика для конкретных поисковых запросов.

Хотя вы можете использовать эти запросы, очень важно точно определить намерения пользователя, стоящие за вашим целевым поиском, и разработать стратегии, адаптированные для обеспечения безопасности функций страницы результатов поисковой системы (SERP).

Изучите историю применения ИИ в SEO и спрогнозируйте, что будет дальше, загрузив отчет.

SEO-специалисты должны сосредоточиться на авторитете, бренде и доверии

Рассмотрение ИИ как части планирования вашего контента и структуры может помочь сделать ваше присутствие отличительным на различных этапах взаимодействия с пользователем.

Как эксперт по SEO, я твердо верю, что отличие вашего бренда от автоматизированного маркетинга путем придания ему подлинной человечности — это эффективная стратегия привлечения внимания пользователей. Создание контента со структурой, совместимой с искусственным интеллектом, но ориентированной на человека, позволяет мне доставлять индивидуальные сообщения соответствующей аудитории в подходящие моменты.

В электронной книге собраны идеи участников SEJ, посвященные тому, как встраивание ИИ в вашу контент-стратегию выходит за рамки использования его для создания контента для вас.

Узнайте, как завоевать доверие и авторитет в эпоху искусственного интеллекта, благодаря советам ведущих экспертов.

Узнайте, в чем лучше всего справляется генеративный искусственный интеллект

Чтобы эффективно использовать генеративный ИИ в своих процессах, важно понимать его механику и сильные стороны.

Использование инструментов генеративного искусственного интеллекта позволяет вам быстро устанавливать связи между понятиями и терминами, анализировать большие объемы данных для выявления закономерностей, а также развивать и расширять свои идеи — и все это при выполнении множества дополнительных задач.

Генеративное использование ИИ может значительно ускорить выполнение некоторых задач, однако поддержание точности остается проблемой. Поэтому он наиболее эффективен для задач, которые имеют встроенную избыточность или требуют проверки человеком для обеспечения точности.

Например, вы можете использовать генеративный искусственный интеллект, чтобы помочь с внутренними ссылками. Он идеально подходит для быстрой оценки веб-страниц сайта и предложения значимых связей между этими страницами. После этого человек может проверить рекомендации и добавить ссылки, которые кажутся логичными.

В электронной книге «SEO в эпоху искусственного интеллекта» мы собрали несколько выдающихся примеров, демонстрирующих, как инструменты искусственного интеллекта, предназначенные для генерации, могут улучшить различные рабочие процессы.

Чтобы узнать обо всем этом и многом другом, загрузите копию книги «SEO In The Age Of AI».

Смотрите также

2024-09-10 12:08

Meta объявляет об обновлениях бизнес-инструментов, влияющих на рекламодателей

Как опытный специалист по цифровому маркетингу с более чем десятилетним опытом работы в постоянно меняющемся ландшафте онлайн-рекламы, я готовлюсь к новой волне корректировок в свете последнего объявления Meta об ограничении доступа к данным в их бизнес-инструментах. Это не первый случай, когда платформы отдают приоритет конфиденциальности, и уж точно не последний.


Meta наложила ограничения на доступ к данным в своих бизнес-инструментах, что может повлиять или временно остановить работу индивидуализированных аудиторий и наборов объявлений. В ответ рекламодателям следует изменить свои методы отслеживания и предоставления данных.

Как эксперт по SEO, я хотел бы обратить ваше внимание на некоторые предстоящие изменения, которые Meta планирует внести в свои бизнес-инструменты. Эти обновления могут изменить способ использования этих платформ в маркетинговых целях. Оставайтесь с нами для получения дополнительной информации и стратегий для соответствующей адаптации.

Ключевые изменения

В электронном письме рекламодателям было указано, что Meta намерена автономно ограничивать определенные типы данных, такие как разделы веб-адресов (URL-адреса) и пользовательские параметры.

Компания поясняет, что данное действие сводит к минимуму риск раскрытия информации, не разрешенной условиями ее Соглашения о Business Tool.

Потенциальное влияние на рекламодателей

В электронном письме описывается несколько способов, которыми эти изменения могут повлиять на бизнес:

  1. Пользовательские аудитории могут потребовать корректировки, если они используют правила, включающие данные, которые будут ограничены.
  2. Некоторые группы объявлений могут быть приостановлены, если индивидуализированная аудитория уменьшится или ее больше нельзя будет обновлять.
  3. Мониторинг Events Manager изменится: ограниченные данные больше не будут включаться в отчеты.

Рекомендации Меты

Если ваша реклама на Meta была временно приостановлена, рассмотрите возможность изменения своей индивидуальной аудитории или создания новой, используя вместо этого настройки по умолчанию.

Компания рекомендует компаниям просмотреть обзор Events Manager, чтобы определить, на какие данные могут повлиять эти обновления.

Ответ отрасли

Нава Хопкинс, евангелист бренда Optmyzr, прокомментировала это объявление в LinkedIn.

По словам Хопкинса, обновление предполагает, что Meta больше внимания уделяет конфиденциальности пользователей, что может повлиять на их способность сообщать и нацеливать рекламу на основе взаимодействия пользователей с рекламой.

Она заявляет:

Значительное изменение в отношении метаобъявлений: не только вводятся определенные ограничения на данные, но и реклама, использующая узкоспециализированные UTM, потенциально может быть приостановлена!

Это важное напоминание о том, что Meta (Facebook/Instagram/WhatsApp) очень серьезно относится к конфиденциальности, и наша способность сообщать и настраивать таргетинг на основе просмотра/нажатия на рекламу больше не является гарантированным состоянием».

Хопкинс рекомендует рекламодателям, использующим UTM, следить за объявлениями, которые были временно приостановлены, и быть готовыми изменить критерии включения. Ей также желательно предупреждать клиентов или заинтересованные стороны, которые ожидают всеобъемлющей отчетности, о предстоящих корректировках, которые они могут ожидать.

Она добавила:

Если в вашей рекламе используются параметры отслеживания UTM, не забывайте регулярно проверять приостановленные объявления и, возможно, скорректировать или упростить включаемый вами контент.

В дальнейшем мы переходим от мира, ориентированного на «идеальную» аудиторию, к миру, который уважает конфиденциальность. Но помните: если ваши клиенты или заинтересованные стороны ожидают отчетов о производительности, основанных на традиционных методах, обязательно обновляйте их!

Хопкинс делится скриншотом электронного письма, которое она получила от Меты:

Практические шаги для бизнеса

В свете этих изменений и принимая во внимание советы Хопкинса, компании могут предпринять несколько действий:

  • Аудит UTM. Проверьте параметры отслеживания на наличие потенциально ограниченной информации.
  • Настройте оповещения о приостановке показа рекламы. Будьте в курсе затронутых кампаний.
  • Изучите альтернативы. Изучите инструменты аналитики, отвечающие требованиям конфиденциальности, за пределами экосистемы Meta.
  • Обновите отчеты. Настройте свои процессы с учетом ограниченной доступности данных.
  • Сообщайте об изменениях. Держите клиентов и команды в курсе их влияния на показатели и производительность.
  • Разработайте таргетинг с учетом конфиденциальности. Тестируйте новые стратегии, используя более широкие сегменты аудитории.
  • Будьте в курсе: регулярно проверяйте политику Meta, чтобы предвидеть будущие изменения.

Рекламодатели могут приспособиться к меняющейся среде конфиденциальности в Meta, предприняв эти действия, гарантируя бесперебойную работу своих кампаний без существенных перебоев.

Контекст

Эти изменения происходят на фоне более широкого перехода отрасли к усилению мер конфиденциальности пользователей.

Учитывая постоянное развитие цифровых платформ, рекламодателям, возможно, придется изменить свою тактику, чтобы она соответствовала обновленным правилам использования данных.

Meta еще не определила конкретную дату реализации этих модификаций. Рекламодателям рекомендуется следить за обновлениями и быть готовыми к возможным изменениям.

Смотрите также

2024-09-10 03:38

Google Ads постепенно отказывается от стратегии назначения ставок с расширенной ценой за клик

Как опытный эксперт в области SEO с более чем десятилетним опытом работы за плечами, я видел многочисленные изменения в цифровом мире, и это последнее объявление Google является еще одной важной вехой. Прекращение использования стратегии назначения ставок Enhanced Cost-Per-Click (eCPC) для поисковых и медийных рекламных кампаний знаменует собой конец эпохи одного из первых вариантов интеллектуального назначения ставок Google.


Google сообщил, что прекратит предлагать метод назначения ставок Enhanced Cost-Per-Click (eCPC) как для поисковых, так и для медийных рекламных кампаний.

Эта поэтапная реализация в течение следующих нескольких месяцев будет означать завершение важной главы одной из новаторских стратегий автоматического назначения ставок Google.

Даты и изменения

Начиная с октября 2024 г. будет невозможно выбрать расширенную цену за клик (ECPC) в качестве стратегии назначения ставок для новых кампаний в поисковой и медийной рекламе.

Однако существующие кампании eCPC продолжат нормально функционировать до марта 2025 года.

Начиная с марта 2025 года все текущие кампании с поисковыми и медийными объявлениями, в которых используется расширенная цена за клик (ECPC), автоматически перейдут на ручное назначение цены за клик (CPC).

Для рекламодателей, которые решили не изменять свои кампании до указанной даты, система автоматически установит для стратегии назначения ставок цену за клик вручную (CPC).

Влияние на медийные кампании

Рекламодатели, использующие кампании в контекстно-медийной сети со стратегией «Максимальное количество кликов» и активированной Оптимизатором цены за конверсию, могут расслабиться, поскольку в настоящее время никаких срочных действий не требуется.

В марте 2025 года эти рекламные кампании перейдут на стратегию автоматического назначения ставок, в которой по умолчанию приоритет отдается максимальному количеству кликов.

Обоснование изменения

Как специалист по цифровому маркетингу, я хотел бы поделиться некоторыми соображениями об эволюции Google в стратегиях интеллектуального назначения ставок за последние годы. Тогда они представили расширенную цену за клик (ECPC), что стало их первым шагом на пути к автоматическому назначению ставок. С тех пор они значительно продвинулись вперед, разработав сложные решения для назначения ставок на основе машинного обучения, такие как «Максимализация конверсий» с дополнительной целевой ценой за конверсию (tCPA) и «Максимальная ценность конверсии» с дополнительной целевой рентабельностью инвестиций в рекламу (tROAS). Эти инновационные стратегии позволяют рекламодателям более эффективно оптимизировать свои кампании, что в конечном итоге приводит к повышению эффективности.

В электронном письме пострадавшим рекламодателям Google заявил:

Предлагаемые стратегии могут дать результаты не хуже, а даже лучше, чем те, которые мы имеем сейчас. По мере того, как мы продвигаемся к этим усовершенствованным методам, Оптимизированная цена за клик (Enhanced CPC) в кампаниях с поисковыми и медийными объявлениями будет постепенно упраздняться.

Что это значит для рекламодателей

Это изменение указывает на то, что Google продвигается вперед в использовании передовой тактики назначения ставок на основе искусственного интеллекта.

В течение следующих нескольких месяцев рекламодателям, которые сейчас используют расширенную цену за клик (ECPC), возможно, придется оценить различные стратегии и, возможно, скорректировать способы управления своими кампаниями.

Хотя этот переход может потребовать некоторой первоначальной адаптации, этот переход дает рекламодателям возможность поэкспериментировать и максимально использовать сложные методы назначения ставок Google. Это может привести к улучшению результатов кампании и повышению эффективности в долгосрочной перспективе.

Часто задаваемые вопросы

Какие изменения вносит Google в систему Оптимизатора цены за конверсию?

Проще говоря, Google планирует прекратить использование метода рекламы с улучшенной ценой за клик (eCPC) как для поисковых, так и для медийных рекламных кампаний.

  • Начиная с октября 2024 г. в новых кампаниях с поисковыми и медийными объявлениями нельзя использовать эффективную цену за клик.
  • Существующие кампании будут работать с eCPC до марта 2025 года.
  • С марта 2025 года остальные кампании eCPC перейдут на назначение цены за клик вручную.

Как это обновление повлияет на существующие кампании, использующие Оптимизатор цены за конверсию?

Кампании с использованием Оптимизатора цены за конверсию будут работать в обычном режиме до марта 2025 года. После этого:

  • Кампании с поисковой и медийной рекламой, в которых используется eCPC, автоматически перейдут на назначение цены за клик вручную.
  • Кампании в контекстно-медийной сети с включенной стратегией «Максимум кликов» и эффективной ценой за клик перейдут на стратегию «Максимум кликов» в марте 2025 года.

Каковы рекомендуемые альтернативы Оптимизатору цены за конверсию?

Google предлагает использовать свои более продвинутые стратегии назначения ставок, основанные на искусственном интеллекте:

  • Максимум конверсий – может включать необязательную целевую цену за конверсию (цена за приобретение).
  • Максимальная ценность конверсии – может включать необязательную целевую рентабельность инвестиций в рекламу (рентабельность расходов на рекламу).

Ожидается, что эти стратегии принесут сопоставимые или превосходящие результаты по сравнению с Оптимизатором цены за конверсию.

Что должны делать рекламодатели, готовясь к этим изменениям?

Рекламодателям необходимо оценить свою текущую зависимость от Оптимизатора цены за конверсию и изучить альтернативы:

  • Оцените, как новые стратегии назначения ставок на основе искусственного интеллекта можно интегрировать в их кампании.
  • Рассмотрите возможность перехода некоторых кампаний раньше, чтобы постепенно адаптироваться к новым стратегиям.

Принятие дальновидной стратегии может облегчить переходы и открыть возможности для повышения производительности.

Смотрите также

2024-09-09 20:08