9 советов по оптимизации бюджета сканирования для SEO

Как опытный специалист по SEO с многолетним опытом работы в цифровой среде за плечами, я искренне поддерживаю использование инструментов аудита веб-сайтов, таких как WebSite Auditor, Screaming Frog, Lumar, Oncrawl или SE Ranking, для обеспечения бесперебойного взаимодействия с пользователем и оптимизации производительности вашего сайта.


Идея краулингового бюджета относится к важнейшему принципу SEO, применимому к обширным веб-сайтам, содержащим миллионы страниц, а также к небольшим сайтам с тысячами ежедневно меняющихся страниц. Все дело в том, как боты поисковых систем распределяют свое время и ресурсы при сканировании этих веб-сайтов.

Примером веб-сайта с миллионами страниц может служить eBay.com, а веб-сайтами с десятками тысяч страниц, которые часто обновляются, могут быть веб-сайты с обзорами пользователей и рейтингами, подобные Gamespot.com.

SEO-специалист обычно сталкивается с многочисленными задачами и проблемами, из-за чего процесс сканирования веб-сайта иногда задерживается или ему уделяется меньше внимания.

Но краулинговый бюджет можно и нужно оптимизировать.

В этой статье вы узнаете:

  • Как улучшить свой краулинговый бюджет.
  • Изучите изменения в краулинговом бюджете как концепции за последние пару лет.

Если ваш сайт содержит всего несколько сотен страниц, но они не индексируются, мы советуем вам взглянуть на нашу статью, в которой обсуждаются распространенные причины проблем с индексацией. Вряд ли проблема кроется в краулинговом бюджете, если на вашем сайте такое небольшое количество страниц.

Что такое краулинговый бюджет?

Термин «бюджет сканирования» описывает, сколько веб-страниц исследуется роботами поисковых систем (такими как пауки и боты) в течение определенного периода.

Существуют определенные соображения, влияющие на бюджет сканирования, например, предварительный баланс между попытками робота Googlebot не перегружать ваш сервер и общим желанием Google сканировать ваш домен.

Улучшение оптимизации бюджета сканирования включает в себя реализацию стратегий, направленных на повышение эффективности и скорости доступа роботов поисковых систем к вашим веб-страницам, тем самым повышая частоту их посещений.

Почему важна оптимизация бюджета сканирования?

Первоначальное появление в результатах поиска начинается с изучения или «сканирования» поисковыми системами. Если страница не сканируется, ни новые, ни обновленные страницы не будут включены в базу данных поисковой системы.

Частое посещение сканерами ваших веб-страниц означает более быстрое включение обновлений и вновь созданных страниц в индекс поисковой системы. Это, в свою очередь, сокращает время, необходимое для того, чтобы ваши стратегии оптимизации стали эффективными и повлияли на ваш поисковый рейтинг.

Индекс Google охватывает бесчисленные миллиарды веб-страниц, и это число ежедневно увеличивается. Чтобы сэкономить на затратах, связанных со сканированием каждого URL-адреса, по мере создания большего количества сайтов, поисковые системы стремятся замедлить скорость сканирования URL-адресов и выборочно включать их в свои индексы, тем самым минимизируя затраты на вычисления и хранение.

Растет ощущение необходимости сократить выбросы углекислого газа из-за изменения климата, и у Google есть комплексный план по повышению устойчивости и минимизации выбросов углекислого газа в долгосрочной перспективе.

Итак, давайте обсудим, как вы можете оптимизировать свой краулинговый бюджет в современном мире.

1. Запретить сканирование URL-адресов действий в robots.txt

Это может стать шоком, но Google подтвердил, что запрет на индексацию определенных URL-адресов не повлияет на скорость сканирования вашего сайта. Другими словами, Google продолжит исследовать ваш сайт с той же скоростью. Однако вы можете задаться вопросом, почему эта тема актуальна здесь. Причина в том, что понимание того, как работает краулинговый бюджет, может помочь оптимизировать наиболее важные для вас страницы вашего сайта, обеспечивая их тщательное исследование поисковыми роботами Google.

Если вы ограничиваете несущественные URL-адреса, по сути, вы просите Google чаще сканировать ценные разделы вашего сайта.

Если ваш сайт включает встроенную функцию поиска с использованием таких запросов, как /search/term=Google, поисковые системы, такие как Google, будут индексировать эти URL-адреса, когда они будут найдены в ссылках в других местах сети.

Аналогичным образом на веб-сайте электронной коммерции вы можете встретить URL-адреса, созданные с использованием фасетных фильтров, например: /filter-options/color/red/and/filter-options/size/small

Эти параметры, обнаруженные в строках запроса, могут генерировать бесконечное количество различных версий URL-адресов, которые Google может попытаться изучить в процессе сканирования веб-страниц.

По сути, в этих URL-адресах отсутствует эксклюзивный контент, и они в основном сортируют уже имеющиеся у вас данные, что полезно для взаимодействия с пользователем, но не идеально для веб-сканеров, таких как Googlebot.

Ограничение сканирования определенных URL-адресов Google с помощью инструкций robots.txt может помочь оптимизировать бюджет сканирования и сделать его более эффективным. Таким образом, Google будет расставлять приоритеты и направлять свои ресурсы сканирования на более полезные страницы вашего веб-сайта, тем самым улучшая общую возможность сканирования вашего сайта.

Вот как заблокировать внутренний поиск, фасеты или любые URL-адреса, содержащие строки запроса, через robots.txt:

Disallow: *?*s=*
Disallow: *?*color=*
Disallow: *?*size=*

Каждое правило запрещает любой URL-адрес со своим конкретным параметром запроса, независимо от каких-либо дополнительных параметров, которые он может иметь.

  • * (звездочка) соответствует любой последовательности символов (включая отсутствие).
  • ? (Знак вопроса): указывает начало строки запроса.
  • =*: Соответствует знаку = и всем последующим символам.

Использование этого метода предотвращает повторение, делая определенные URL-адреса с указанными параметрами запроса невидимыми для сканеров поисковых систем.

Имейте в виду, что при использовании этого метода любые URL-адреса с указанными символами будут запрещены независимо от их местоположения. Это может непреднамеренно заблокировать определенные URL-адреса. Например, параметр запроса, состоящий из одного символа, может запретить доступ ко всем URL-адресам, содержащим этот символ, даже если он находится в другой части URL-адреса. Если вы хотите запретить URL-адреса с определенным одним символом, рассмотрите возможность использования вместо этого набора правил: таким образом вы можете специально настроить таргетинг на символы, которые хотите запретить, без потенциальной блокировки других действительных URL-адресов.

Disallow: *?s=*
Disallow: *&s=*

Критическое изменение заключается в том, что между символами «?» и «s» нет звездочки «*». Этот метод позволяет запретить определенные точные параметры «s» в URL-адресах, но вам придется добавлять каждый вариант индивидуально.

Включите эти рекомендации в свои уникальные сценарии для любых URL-адресов, которые не предлагают эксклюзивный контент. Например, если ваши кнопки списка желаний ведут к URL-адресам типа «?add_to_wishlist=1», вам следует запретить доступ к ним с помощью правила: Исключить или заблокировать использование таких URL-адресов.

Disallow: /*?*add_to_wishlist=*

Это простой и естественный первый и самый важный шаг, рекомендованный Google.

Запретив учитывать определенные параметры, Google удалось уменьшить количество сканируемых страниц с нерелевантными строками запросов. Это произошло потому, что Google сталкивался с многочисленными URL-адресами с разными значениями параметров, которые приводили к несуществующим или бессмысленным страницам.

Иногда поисковые системы потенциально могут сканировать и индексировать URL-адреса, которые должны быть запрещены. Это может показаться необычным, но обычно не стоит беспокоиться. Чаще всего это указывает на то, что другие сайты ссылаются на эти конкретные URL-адреса.

Google подтвердил, что в этих случаях активность сканирования со временем снизится.

Избегайте применения «мета-тегов noindex» в целях блокировки, так как роботу Googlebot необходимо сделать запрос на просмотр тега, что неоправданно расходует ваш краулинговый бюджет, поскольку он не сразу распознает блокировку. Вместо этого рассмотрите возможность использования соответствующих кодов ответов HTTP или файла robots.txt для эффективного управления индексированием.

1.2. Запретить URL-адреса неважных ресурсов в файле Robots.txt

Как опытный веб-мастер, я бы рекомендовал предпринять дополнительный шаг для защиты вашего сайта: заблокировать все внешние файлы JavaScript, которые не влияют на структуру или внешний вид сайта. Это помогает гарантировать, что в вашем домене выполняются только нужные сценарии.

Например, если у вас есть файлы JavaScript, отвечающие за открытие изображений во всплывающем окне при нажатии пользователем, вы можете запретить их использование в файле robots.txt, чтобы Google не тратил бюджет на их сканирование.

Вот пример правила запрета файла JavaScript:

Запретить: /assets/js/popup.js

Дополнительная иллюстрация включает интерфейсы REST API для отправки форм. Предположим, у вас есть форма, которая указывает на URL-адрес «/api/form-submissions». Этот URL-адрес служит местом назначения, куда будут отправлены отправленные данные из вашей формы.

Вполне возможно, что эти URL-адреса могут быть проиндексированы Google. Однако они не имеют ничего общего с аспектом отображения, поэтому было бы разумно запретить к ним доступ.

Запретить: /rest-api/form-submissions/

Вместо этого важно убедиться, что конечные точки REST API, используемые автономной CMS, не заблокированы, поскольку они обычно используются для динамической загрузки контента.

Короче говоря, посмотрите на все, что не связано с рендерингом, и заблокируйте их.

2. Следите за цепочками перенаправления

Вместо прямого пути цепное перенаправление происходит, когда несколько веб-адресов ведут к другим адресам, которые продолжают перенаправляться. Если этот процесс повторяется слишком часто, сканеры поисковых систем могут отказаться от попыток добраться до конечного пункта назначения до того, как они туда доберутся.

Один URL-адрес ведет к другому, который затем ведет к третьему, и эта закономерность может продолжаться. Стоит отметить, что эти цепочки иногда могут создавать бесконечные циклы, в которых URL-адреса продолжают перенаправляться друг на друга.

Избегать этого — разумный подход к здоровью веб-сайта.

В идеале вы могли бы избежать наличия хотя бы одной цепочки перенаправлений на всем вашем домене.

Однако решение проблем с перенаправлением на большом сайте может оказаться сложной задачей из-за появления как 301, так и 302 перенаправлений. К сожалению, исправить перенаправления, вызванные входящими ссылками, сложно, поскольку нам не хватает контроля над внешними веб-сайтами.

Несколько случайных перенаправлений не вызовут серьезных проблем, но расширенные цепочки или циклы могут привести к осложнениям.

Чтобы определить цепочки перенаправления для устранения неполадок, рассмотрите возможность использования инструментов SEO, таких как Screaming Frog, Lumar или Oncrawl. Эти удобные инструменты помогут вам найти цепи.

Когда вы сталкиваетесь с цепочкой, оптимальным решением будет исключить все URL-адреса от начальной страницы до последней. Например, если ваша цепочка охватывает семь страниц, вместо этого напрямую перенаправьте первый URL-адрес на седьмой.

Как опытный веб-мастер, я хотел бы поделиться практическим советом по минимизации цепочек перенаправлений: вместо того, чтобы полагаться на перенаправления, обновите свою систему управления контентом (CMS), указав конечные пункты назначения внутренних URL-адресов, которые в настоящее время перенаправляют. Эта простая настройка может значительно улучшить производительность сайта и удобство для пользователей.

В зависимости от используемой вами системы управления контентом (CMS) могут применяться различные методы; например, вы можете использовать определенный плагин в среде WordPress. Однако если вы работаете с другой CMS, вам может потребоваться индивидуальное решение или обратитесь за помощью к своей команде разработчиков.

3. Используйте рендеринг на стороне сервера (HTML), когда это возможно.

Говоря о Google, его инструмент веб-сканирования работает с самой последней версией Chrome, гарантируя, что он может легко воспринимать контент, динамически генерируемый с помощью JavaScript, без каких-либо проблем.

Имейте в виду, что минимизация вычислительных затрат имеет решающее значение для Google, поскольку они стремятся сделать эти затраты настолько низкими, насколько это возможно.

Зачем усложнять работу Google, генерируя контент страниц с помощью JavaScript (на стороне клиента), тем самым увеличивая вычислительные затраты Google на сканирование ваших веб-страниц?

По этой причине, когда это возможно, вам следует придерживаться HTML.

Таким образом, вы не ухудшите свои шансы при использовании любого сканера.

4. Улучшите скорость страницы

Гугл говорит:

Процесс сканирования Google ограничивается такими факторами, как пропускная способность, время и количество доступных экземпляров Googlebot. Обеспечив быструю обработку запросов вашим сервером, вы сможете обеспечить более полное сканирование страниц вашего веб-сайта Google.

Использование рендеринга на стороне сервера действительно является разумным шагом для повышения скорости загрузки страницы, однако крайне важно убедиться, что ваши основные веб-показатели точно настроены, особенно время ответа сервера.

5. Позаботьтесь о своих внутренних ссылках

Когда Google сканирует веб-страницу, он определяет уникальные URL-адреса внутри нее, рассматривая каждый отдельный URL-адрес как отдельный объект или страницу, которая индивидуально индексируется сканерами поисковой системы.

Чтобы обеспечить единообразие на вашем сайте, направьте все внутренние ссылки в навигации (и в других местах) на версию вашей веб-страницы с «www». Это особенно актуально при ссылках на страницы, которые также доступны без www. Другими словами, если к странице можно получить доступ и как «www.example.com», и как «example.com», убедитесь, что они указывают друг на друга, причем одна из них является версией «www», а другая — ее аналогом.

Частой ошибкой, на которую следует обратить внимание, является забывание включить закрывающую косую черту в URL-адреса. Чтобы обеспечить согласованность, всегда не забывайте добавлять косую черту как к внешним, так и к внутренним URL-адресам, которые вы используете.

//www.example.com/sample-page» на «https://www.example.com/sample-page/» может предотвратить двойное сканирование одного URL-адреса. Это связано с тем, что поисковые системы могут рассматривать две версии как отдельные URL-адреса и сканировать их отдельно.

Важно помнить, что на ваших веб-страницах нет неработающих внутренних ссылок, поскольку они могут потреблять ваш краулинговый бюджет и приводить к ошибкам 404. Проще говоря, важно убедиться, что все ссылки на вашем сайте ведут на рабочие страницы, чтобы не тратить зря время поисковых ботов и не разочаровывать пользователей.

И если этого было недостаточно, они еще и навредили вашему пользовательскому опыту!

В данном случае я опять же за использование инструмента для аудита сайта.

Эти инструменты — WebSite Auditor, Screaming Frog, Lumar, Oncrawl и SE Ranking — являются отличными вариантами для проведения тщательного анализа или аудита веб-сайтов.

6. Обновите карту сайта

Опять же, позаботиться о вашей XML-карте сайта — это действительно беспроигрышный вариант.

Ботам будет намного лучше и легче понять, куда ведут внутренние ссылки.

Используйте только те URL-адреса, которые являются каноническими для вашей карты сайта.

Также убедитесь, что он соответствует последней загруженной версии robots.txt и загружается быстро.

7. Внедрите код состояния 304.

Как эксперт по SEO, я бы объяснил, что когда робот Googlebot посещает веб-страницу (URL), он включает заголовок «If-Modified-Since» с датой последнего посещения этой конкретной страницы. Эта дополнительная информация помогает системе определить, был ли обновлен контент с момента предыдущего сканирования.

Если содержимое вашей веб-страницы не изменилось с даты, указанной в «If-Modified-Since», вы можете ответить кодом состояния «304 Not Modified», не предоставляя никаких новых данных. Это указывает поисковым системам, что содержимое страницы не было обновлено, что позволяет роботу Googlebot использовать ранее сохраненную версию при следующем посещении.

Однако при реализации кода состояния 304 есть предостережение, на которое указал Гэри Иллис.

Будьте осторожны: пустые страницы, возвращаемые серверами со статусом 200 в результате ошибок сервера, могут помешать веб-сканерам повторно посещать их, что потенциально может вызвать постоянные проблемы при индексации сайта.

8. Теги Hreflang жизненно важны

Чтобы анализировать различные версии ваших веб-страниц, адаптированные для конкретных регионов, важно использовать теги hreflang. Таким образом, вы можете эффективно информировать Google о различных локализованных версиях ваших страниц.

Первоначально обязательно включите в заголовок вашей веб-страницы следующее:

Чтобы указать конкретный URL-адрес, рекомендуется использовать элемент «». Это позволяет указать разные языковые или региональные варианты одной и той же веб-страницы.

9. Мониторинг и обслуживание

Чтобы следить за необычными действиями сканирования и устранять возможные проблемы, регулярно просматривайте журналы своего сервера и отчет «Статистика сканирования» в консоли поиска Google.

В большинстве случаев, если вы наблюдаете повторяющиеся всплески ошибок 404, это либо связано с проблемой бесконечных областей сканирования сайта (тема, которую мы рассматривали ранее), либо это может сигнализировать о других трудностях, с которыми может столкнуться ваш сайт.

Зачастую вам может оказаться полезным объединить данные журналов сервера со статистикой Search Console, чтобы точно определить основную проблему.

Краткое содержание

Действительно, если вы размышляли над тем, остается ли оптимизация краулингового бюджета вашего сайта решающей, я могу вас заверить, что это определенно важно!

Понятие краулингового бюджета имеет решающее значение для каждого специалиста по SEO, который следует учитывать как сейчас, так и, вероятно, в будущем.

Вполне вероятно, что эти предложения помогут вам точно настроить бюджет сканирования и улучшить результаты SEO — просто имейте в виду, что сканирование поисковыми системами не означает, что ваши страницы будут автоматически проиндексированы.

Смотрите также

2024-09-10 13:39

SEO в эпоху искусственного интеллекта: создайте лучшие практики искусственного интеллекта

Как опытный веб-мастер с более чем двадцатилетним опытом работы в постоянно меняющемся цифровом мире, я могу с уверенностью сказать, что ИИ стал слоном в комнате, когда дело доходит до SEO. Это не просто настройка алгоритма или новая причудливая функция; это сейсмический сдвиг, который переопределяет нашу отрасль и заставляет нас адаптироваться или остаться позади.


Хорошо это или плохо, но ИИ стал доминирующей силой в SEO.

SEO-специалисты уже довольно давно занимаются искусственным интеллектом в алгоритмах Google. Однако в последнее время искусственный интеллект занял центральное место в сфере цифрового маркетинга. Крупные технологические компании быстро создают эту технологию и предоставляют ее пользователям, стремясь оставаться инновационными и дальновидными.

В результате мы стали свидетелями многочисленных запусков ИИ и генеративного ИИ, таких как чат-боты LLM, интеграция чат-ботов в поисковые системы, а также инструменты поиска и исследования на базе ИИ.

ИИ грозит стать одной из самых разрушительных сил в SEO и цифровом маркетинге.

Свежая электронная публикация SEJ углубляется в последние хроники искусственного интеллекта (ИИ) и достижения в области поисковой и маркетинговой индустрии. Кроме того, он предлагает дорожные карты и профессиональную информацию по интеграции ИИ в ваши стратегические планы и оперативные процедуры.

Загрузите SEO In The Age Of AI, чтобы расширить знания, изложенные в этом посте.

SEO-специалисты должны разработать лучшие практики искусственного интеллекта

Как специалисту по SEO, мне крайне важно понимать тонкости технологий искусственного интеллекта, которые лежат в основе современных поисковых сред, особенно тех, которые оснащены удобными для пользователя функциями искусственного интеллекта. Чтобы добиться успеха в этой конкурентной среде, я должен ознакомиться с различными способами эффективного взаимодействия и сотрудничества с этими передовыми системами.

  • Оптимизация алгоритмов поиска на основе искусственного интеллекта.
  • Создание ключевых слов и стратегий поиска, учитывающих функции генеративного поиска ИИ.
  • Использование инструментов искусственного интеллекта для повышения производительности.
  • Понимание того, где ИИ нуждается в человеческом руководстве и какие задачи ему не следует делегировать.
  • Отличие вашего бренда и контента от конкурентов, где инструменты искусственного интеллекта снизили затраты и барьеры для масштабного маркетинга.

Разработка четких рекомендаций относительно вашего подхода и связи с ИИ, включая генеративный ИИ, поможет обеспечить ваш успех по мере развития технологий и изменения предпочтений пользователей.

Оглянитесь назад на развитие искусственного интеллекта, чтобы предсказать будущие тенденции

Рассмотрите возможность изучения постоянного влияния искусственного интеллекта (ИИ) на поисковую оптимизацию (SEO), изучив последние выпуски и обновления продуктов Google с использованием ИИ. Это включает в себя наблюдение за изменениями в функциях и алгоритмах страницы результатов поисковой системы (SERP), чтобы предсказать, как они могут развиваться.

Посмотрите, как ИИ вписывается в эти разработки, чтобы предсказать, как может измениться поиск.

В электронной книге собраны примерно годовые отчеты SEJ о событиях в отрасли и обновлениях Google, охватывающие испытания и запуски продуктов, отклики общественности и исследования последствий этих событий.

Важным аспектом, на который следует обратить внимание, является прогресс Google в создании функций на странице результатов поисковой системы (SERP), которые предлагают ответы непосредственно пользователям, устраняя необходимость посещения сайта. Такие функции, как ответы, генерируемые искусственным интеллектом, могут создавать проблемы при привлечении трафика для конкретных поисковых запросов.

Хотя вы можете использовать эти запросы, очень важно точно определить намерения пользователя, стоящие за вашим целевым поиском, и разработать стратегии, адаптированные для обеспечения безопасности функций страницы результатов поисковой системы (SERP).

Изучите историю применения ИИ в SEO и спрогнозируйте, что будет дальше, загрузив отчет.

SEO-специалисты должны сосредоточиться на авторитете, бренде и доверии

Рассмотрение ИИ как части планирования вашего контента и структуры может помочь сделать ваше присутствие отличительным на различных этапах взаимодействия с пользователем.

Как эксперт по SEO, я твердо верю, что отличие вашего бренда от автоматизированного маркетинга путем придания ему подлинной человечности — это эффективная стратегия привлечения внимания пользователей. Создание контента со структурой, совместимой с искусственным интеллектом, но ориентированной на человека, позволяет мне доставлять индивидуальные сообщения соответствующей аудитории в подходящие моменты.

В электронной книге собраны идеи участников SEJ, посвященные тому, как встраивание ИИ в вашу контент-стратегию выходит за рамки использования его для создания контента для вас.

Узнайте, как завоевать доверие и авторитет в эпоху искусственного интеллекта, благодаря советам ведущих экспертов.

Узнайте, в чем лучше всего справляется генеративный искусственный интеллект

Чтобы эффективно использовать генеративный ИИ в своих процессах, важно понимать его механику и сильные стороны.

Использование инструментов генеративного искусственного интеллекта позволяет вам быстро устанавливать связи между понятиями и терминами, анализировать большие объемы данных для выявления закономерностей, а также развивать и расширять свои идеи — и все это при выполнении множества дополнительных задач.

Генеративное использование ИИ может значительно ускорить выполнение некоторых задач, однако поддержание точности остается проблемой. Поэтому он наиболее эффективен для задач, которые имеют встроенную избыточность или требуют проверки человеком для обеспечения точности.

Например, вы можете использовать генеративный искусственный интеллект, чтобы помочь с внутренними ссылками. Он идеально подходит для быстрой оценки веб-страниц сайта и предложения значимых связей между этими страницами. После этого человек может проверить рекомендации и добавить ссылки, которые кажутся логичными.

В электронной книге «SEO в эпоху искусственного интеллекта» мы собрали несколько выдающихся примеров, демонстрирующих, как инструменты искусственного интеллекта, предназначенные для генерации, могут улучшить различные рабочие процессы.

Чтобы узнать обо всем этом и многом другом, загрузите копию книги «SEO In The Age Of AI».

Смотрите также

2024-09-10 12:08

Meta объявляет об обновлениях бизнес-инструментов, влияющих на рекламодателей

Как опытный специалист по цифровому маркетингу с более чем десятилетним опытом работы в постоянно меняющемся ландшафте онлайн-рекламы, я готовлюсь к новой волне корректировок в свете последнего объявления Meta об ограничении доступа к данным в их бизнес-инструментах. Это не первый случай, когда платформы отдают приоритет конфиденциальности, и уж точно не последний.


Meta наложила ограничения на доступ к данным в своих бизнес-инструментах, что может повлиять или временно остановить работу индивидуализированных аудиторий и наборов объявлений. В ответ рекламодателям следует изменить свои методы отслеживания и предоставления данных.

Как эксперт по SEO, я хотел бы обратить ваше внимание на некоторые предстоящие изменения, которые Meta планирует внести в свои бизнес-инструменты. Эти обновления могут изменить способ использования этих платформ в маркетинговых целях. Оставайтесь с нами для получения дополнительной информации и стратегий для соответствующей адаптации.

Ключевые изменения

В электронном письме рекламодателям было указано, что Meta намерена автономно ограничивать определенные типы данных, такие как разделы веб-адресов (URL-адреса) и пользовательские параметры.

Компания поясняет, что данное действие сводит к минимуму риск раскрытия информации, не разрешенной условиями ее Соглашения о Business Tool.

Потенциальное влияние на рекламодателей

В электронном письме описывается несколько способов, которыми эти изменения могут повлиять на бизнес:

  1. Пользовательские аудитории могут потребовать корректировки, если они используют правила, включающие данные, которые будут ограничены.
  2. Некоторые группы объявлений могут быть приостановлены, если индивидуализированная аудитория уменьшится или ее больше нельзя будет обновлять.
  3. Мониторинг Events Manager изменится: ограниченные данные больше не будут включаться в отчеты.

Рекомендации Меты

Если ваша реклама на Meta была временно приостановлена, рассмотрите возможность изменения своей индивидуальной аудитории или создания новой, используя вместо этого настройки по умолчанию.

Компания рекомендует компаниям просмотреть обзор Events Manager, чтобы определить, на какие данные могут повлиять эти обновления.

Ответ отрасли

Нава Хопкинс, евангелист бренда Optmyzr, прокомментировала это объявление в LinkedIn.

По словам Хопкинса, обновление предполагает, что Meta больше внимания уделяет конфиденциальности пользователей, что может повлиять на их способность сообщать и нацеливать рекламу на основе взаимодействия пользователей с рекламой.

Она заявляет:

Значительное изменение в отношении метаобъявлений: не только вводятся определенные ограничения на данные, но и реклама, использующая узкоспециализированные UTM, потенциально может быть приостановлена!

Это важное напоминание о том, что Meta (Facebook/Instagram/WhatsApp) очень серьезно относится к конфиденциальности, и наша способность сообщать и настраивать таргетинг на основе просмотра/нажатия на рекламу больше не является гарантированным состоянием».

Хопкинс рекомендует рекламодателям, использующим UTM, следить за объявлениями, которые были временно приостановлены, и быть готовыми изменить критерии включения. Ей также желательно предупреждать клиентов или заинтересованные стороны, которые ожидают всеобъемлющей отчетности, о предстоящих корректировках, которые они могут ожидать.

Она добавила:

Если в вашей рекламе используются параметры отслеживания UTM, не забывайте регулярно проверять приостановленные объявления и, возможно, скорректировать или упростить включаемый вами контент.

В дальнейшем мы переходим от мира, ориентированного на «идеальную» аудиторию, к миру, который уважает конфиденциальность. Но помните: если ваши клиенты или заинтересованные стороны ожидают отчетов о производительности, основанных на традиционных методах, обязательно обновляйте их!

Хопкинс делится скриншотом электронного письма, которое она получила от Меты:

Практические шаги для бизнеса

В свете этих изменений и принимая во внимание советы Хопкинса, компании могут предпринять несколько действий:

  • Аудит UTM. Проверьте параметры отслеживания на наличие потенциально ограниченной информации.
  • Настройте оповещения о приостановке показа рекламы. Будьте в курсе затронутых кампаний.
  • Изучите альтернативы. Изучите инструменты аналитики, отвечающие требованиям конфиденциальности, за пределами экосистемы Meta.
  • Обновите отчеты. Настройте свои процессы с учетом ограниченной доступности данных.
  • Сообщайте об изменениях. Держите клиентов и команды в курсе их влияния на показатели и производительность.
  • Разработайте таргетинг с учетом конфиденциальности. Тестируйте новые стратегии, используя более широкие сегменты аудитории.
  • Будьте в курсе: регулярно проверяйте политику Meta, чтобы предвидеть будущие изменения.

Рекламодатели могут приспособиться к меняющейся среде конфиденциальности в Meta, предприняв эти действия, гарантируя бесперебойную работу своих кампаний без существенных перебоев.

Контекст

Эти изменения происходят на фоне более широкого перехода отрасли к усилению мер конфиденциальности пользователей.

Учитывая постоянное развитие цифровых платформ, рекламодателям, возможно, придется изменить свою тактику, чтобы она соответствовала обновленным правилам использования данных.

Meta еще не определила конкретную дату реализации этих модификаций. Рекламодателям рекомендуется следить за обновлениями и быть готовыми к возможным изменениям.

Смотрите также

2024-09-10 03:38

Google Ads постепенно отказывается от стратегии назначения ставок с расширенной ценой за клик

Как опытный эксперт в области SEO с более чем десятилетним опытом работы за плечами, я видел многочисленные изменения в цифровом мире, и это последнее объявление Google является еще одной важной вехой. Прекращение использования стратегии назначения ставок Enhanced Cost-Per-Click (eCPC) для поисковых и медийных рекламных кампаний знаменует собой конец эпохи одного из первых вариантов интеллектуального назначения ставок Google.


Google сообщил, что прекратит предлагать метод назначения ставок Enhanced Cost-Per-Click (eCPC) как для поисковых, так и для медийных рекламных кампаний.

Эта поэтапная реализация в течение следующих нескольких месяцев будет означать завершение важной главы одной из новаторских стратегий автоматического назначения ставок Google.

Даты и изменения

Начиная с октября 2024 г. будет невозможно выбрать расширенную цену за клик (ECPC) в качестве стратегии назначения ставок для новых кампаний в поисковой и медийной рекламе.

Однако существующие кампании eCPC продолжат нормально функционировать до марта 2025 года.

Начиная с марта 2025 года все текущие кампании с поисковыми и медийными объявлениями, в которых используется расширенная цена за клик (ECPC), автоматически перейдут на ручное назначение цены за клик (CPC).

Для рекламодателей, которые решили не изменять свои кампании до указанной даты, система автоматически установит для стратегии назначения ставок цену за клик вручную (CPC).

Влияние на медийные кампании

Рекламодатели, использующие кампании в контекстно-медийной сети со стратегией «Максимальное количество кликов» и активированной Оптимизатором цены за конверсию, могут расслабиться, поскольку в настоящее время никаких срочных действий не требуется.

В марте 2025 года эти рекламные кампании перейдут на стратегию автоматического назначения ставок, в которой по умолчанию приоритет отдается максимальному количеству кликов.

Обоснование изменения

Как специалист по цифровому маркетингу, я хотел бы поделиться некоторыми соображениями об эволюции Google в стратегиях интеллектуального назначения ставок за последние годы. Тогда они представили расширенную цену за клик (ECPC), что стало их первым шагом на пути к автоматическому назначению ставок. С тех пор они значительно продвинулись вперед, разработав сложные решения для назначения ставок на основе машинного обучения, такие как «Максимализация конверсий» с дополнительной целевой ценой за конверсию (tCPA) и «Максимальная ценность конверсии» с дополнительной целевой рентабельностью инвестиций в рекламу (tROAS). Эти инновационные стратегии позволяют рекламодателям более эффективно оптимизировать свои кампании, что в конечном итоге приводит к повышению эффективности.

В электронном письме пострадавшим рекламодателям Google заявил:

Предлагаемые стратегии могут дать результаты не хуже, а даже лучше, чем те, которые мы имеем сейчас. По мере того, как мы продвигаемся к этим усовершенствованным методам, Оптимизированная цена за клик (Enhanced CPC) в кампаниях с поисковыми и медийными объявлениями будет постепенно упраздняться.

Что это значит для рекламодателей

Это изменение указывает на то, что Google продвигается вперед в использовании передовой тактики назначения ставок на основе искусственного интеллекта.

В течение следующих нескольких месяцев рекламодателям, которые сейчас используют расширенную цену за клик (ECPC), возможно, придется оценить различные стратегии и, возможно, скорректировать способы управления своими кампаниями.

Хотя этот переход может потребовать некоторой первоначальной адаптации, этот переход дает рекламодателям возможность поэкспериментировать и максимально использовать сложные методы назначения ставок Google. Это может привести к улучшению результатов кампании и повышению эффективности в долгосрочной перспективе.

Часто задаваемые вопросы

Какие изменения вносит Google в систему Оптимизатора цены за конверсию?

Проще говоря, Google планирует прекратить использование метода рекламы с улучшенной ценой за клик (eCPC) как для поисковых, так и для медийных рекламных кампаний.

  • Начиная с октября 2024 г. в новых кампаниях с поисковыми и медийными объявлениями нельзя использовать эффективную цену за клик.
  • Существующие кампании будут работать с eCPC до марта 2025 года.
  • С марта 2025 года остальные кампании eCPC перейдут на назначение цены за клик вручную.

Как это обновление повлияет на существующие кампании, использующие Оптимизатор цены за конверсию?

Кампании с использованием Оптимизатора цены за конверсию будут работать в обычном режиме до марта 2025 года. После этого:

  • Кампании с поисковой и медийной рекламой, в которых используется eCPC, автоматически перейдут на назначение цены за клик вручную.
  • Кампании в контекстно-медийной сети с включенной стратегией «Максимум кликов» и эффективной ценой за клик перейдут на стратегию «Максимум кликов» в марте 2025 года.

Каковы рекомендуемые альтернативы Оптимизатору цены за конверсию?

Google предлагает использовать свои более продвинутые стратегии назначения ставок, основанные на искусственном интеллекте:

  • Максимум конверсий – может включать необязательную целевую цену за конверсию (цена за приобретение).
  • Максимальная ценность конверсии – может включать необязательную целевую рентабельность инвестиций в рекламу (рентабельность расходов на рекламу).

Ожидается, что эти стратегии принесут сопоставимые или превосходящие результаты по сравнению с Оптимизатором цены за конверсию.

Что должны делать рекламодатели, готовясь к этим изменениям?

Рекламодателям необходимо оценить свою текущую зависимость от Оптимизатора цены за конверсию и изучить альтернативы:

  • Оцените, как новые стратегии назначения ставок на основе искусственного интеллекта можно интегрировать в их кампании.
  • Рассмотрите возможность перехода некоторых кампаний раньше, чтобы постепенно адаптироваться к новым стратегиям.

Принятие дальновидной стратегии может облегчить переходы и открыть возможности для повышения производительности.

Смотрите также

2024-09-09 20:08

Стратегия Reddit по привлечению рекламодателей: таргетинг по интересам

Как маркетолог с многолетним опытом работы в постоянно развивающемся цифровом пространстве, я могу с уверенностью сказать, что приверженность Reddit технологиям искусственного интеллекта и его ориентированный на пользователя подход просто впечатляют. Направленность платформы на баланс монетизации и пользовательского опыта глубоко перекликается с моими собственными ценностями как профессионала.


Поскольку Reddit постоянно вкладывает ресурсы в свою рекламную платформу, специалисты по маркетингу и предприниматели должны предвидеть новые возможности для общения с активно заинтересованными пользователями в различных тематических областях и сообществах.

Во время недавнего разговора в подкасте AdExchanger Talks Джйотсна (Джиоти) Вайди, вице-президент Reddit по рекламным продуктам, предложил ценную информацию о том, как Reddit адаптирует свои услуги для более эффективного обслуживания рекламодателей, обеспечивая при этом первоклассное качество. пользовательский опыт остается приоритетом.

Подлинные беседы с заинтересованными потребителями

Одним из существенных преимуществ Reddit является его способность способствовать искренним дискуссиям между энтузиастами сообщества.

Маркетологи могут воспользоваться этим шансом взаимодействовать со своими предполагаемыми клиентами в надежной обстановке, соответствующей ситуации, и укрепляя доверие.

Вайди подчеркивает потенциал бизнеса по взаимодействию с заинтересованными пользователями, заявляя:

«60 % пользователей Reddit действительно хотят, чтобы бренды участвовали в их сообществах и взаимодействовали с ними».

Как эксперт по SEO, я бы посоветовал использовать активные обсуждения в сообществе Reddit для создания более точных и эффективных рекламных объявлений, адаптированных к моей целевой аудитории. Такой подход позволяет мне на более глубоком уровне взаимодействовать с нужными пользователями, гарантируя, что мою рекламу не просто увидят, но и по-настоящему почувствуют.

Таргетинг рекламы Reddit на основе интересов

Вайди рассказал о том, что Reddit в основном использует таргетированную рекламу на основе интересов пользователей, которые определяются их взаимодействием с контентом на платформе.

Как опытный веб-мастер, я бы подчеркнул, что нам следует сместить акцент на автоматический таргетинг. Этот инновационный подход использует возможности машинного обучения для тщательного изучения поведения пользователей, что позволяет нам показывать рекламу, более адаптированную и интересную для каждого отдельного пользователя.

Рекламодатели имеют возможность показывать рекламу людям, чье прошлое поведение указывает на то, что они могут быть заинтересованы, независимо от того, относится ли этот интерес непосредственно к рекламируемому продукту или нет.

Вайди утверждает:

Что касается стратегий таргетинга, мы представили некоторые уникальные инструменты, такие как таргетинг по ключевым словам. Наша цель — постоянно совершенствовать эти методы, особенно для нижней части воронки, уделяя особое внимание автоматизированному таргетингу. Такой подход позволяет нам не только создавать модели на основе известного поведения пользователей. Но также это позволяет нам адаптироваться и расти вместе с взаимодействием пользователя с контентом Reddit и самой нашей рекламой.

Вайди привел пример того, как компания по йоге обнаружила, что люди, предпочитающие органические продукты, также более склонны к их предложениям.

Автоматический таргетинг может помочь обнаружить скрытые ссылки, позволяя рекламодателям эффективно расширять охват своей аудитории.

Рекламные решения на основе искусственного интеллекта

Reddit вкладывает значительные средства в рекламные решения на основе искусственного интеллекта, которые помогают маркетологам достигать лучших результатов.

Вайди подчеркнул стремление компании создать передовое рекламное решение, охватывающее всю маркетинговую воронку, используя искусственный интеллект для повышения эффективности рекламодателей.

Благодаря внедрению искусственного интеллекта (ИИ) компании получат доступ к сложным методам таргетинга, автоматической корректировке мест размещения рекламы и индивидуальной персонализации дизайна.

Вайди утверждает:

«Нам не нужно повторять ошибки, с которыми столкнулись другие компании при внедрении ИИ и поколения ИИ, требуя от них адаптации и миграции. Вместо этого мы можем сразу перейти к желаемой позиции, используя передовые технологии, такие как Gen AI. Я считаю, что эта технология помогает небольшим компаниям конкурировать на более равных условиях.

Расширение рекламных предложений с уделением приоритетного внимания пользовательскому опыту

Расширяя свои рекламные предложения, Reddit по-прежнему стремится обеспечить положительный пользовательский опыт.

Вайди отметил, что Reddit балансирует усилия по монетизации с пользовательским контролем и предпочтениями.

Теперь у маркетологов есть возможность использовать новые рекламные места в различных областях Reddit, включая основной канал, разделы комментариев и страницы результатов поиска.

С другой стороны, платформа предлагает варианты персонализированного управления для определенных категорий рекламы, таких как религиозный и политический контент, что позволяет пользователям настраивать показ рекламы в соответствии со своими предпочтениями.

Нахождение правильного баланса между получением дохода и обеспечением положительного пользовательского опыта приносит пользу как рекламодателям, так и пользователям Reddit, что приводит к взаимовыгодной ситуации.

Компании могут общаться с внимательными зрителями, не беспокоясь, поскольку пользователи сами имеют право выбирать, какую рекламу они хотят просматривать.

Измерение эффективности рекламы на протяжении всей воронки

Вайди рассказал об усилиях Reddit по предоставлению решений для измерения всей воронки продаж.

В систему внедрены такие инструменты, как Reddit Brand Impact и Sales Impact, позволяющие рекламодателям оценить, как их маркетинговые усилия влияют на узнаваемость бренда и продажи.

Как профессионал в области цифрового маркетинга, я воодушевлен предстоящими изменениями в Reddit. Они налаживают более тесные связи с рекламодателями, сотрудничая со сторонними организациями и внедряя API конверсий (CAPI). Такое сотрудничество дает нам более обширные данные, позволяющие эффективно настраивать наши кампании и точно оценивать рентабельность инвестиций (ROI), что делает наши маркетинговые стратегии более эффективными.

Вайди утверждает:

Наша основная цель — разработать решения для комплексного анализа данных, включая показатели до и после кампании. Недавно мы представили Reddit Brand Lift и Conversion Lift, наши собственные инструменты. Мы также тесно сотрудничаем с рекламодателями либо посредством сторонних партнерств, либо через интеграцию CAPI, чтобы лучше интерпретировать сигналы, что приводит к повышению эффективности и точности измерений.

Ключевые выводы для маркетологов и владельцев бизнеса

  1. Уникальные возможности таргетинга аудитории Reddit позволяют рекламодателям обращаться к пользователям на основе продемонстрированных ими интересов, даже если они не имеют прямого отношения к продукту или услуге рекламодателя. Это может помочь открыть новые возможности для расширения и вовлечения аудитории.
  2. Ориентированность платформы на облегчение подлинного общения в увлеченных сообществах обеспечивает брендам надежную среду для связи со своей целевой аудиторией. Однако маркетологи должны относиться к этим сообществам с уважением и стремиться внести свой вклад в обсуждения.
  3. Reddit вкладывает значительные средства в рекламные решения на основе искусственного интеллекта, которые могут помочь маркетологам улучшить таргетинг, оптимизировать места размещения рекламы и улучшить креативную настройку. Получение информации о новых функциях на основе искусственного интеллекта может помочь рекламодателям оставаться конкурентоспособными на платформе.
  4. Расширяя свои рекламные предложения, Reddit по-прежнему стремится сбалансировать монетизацию и удобство для пользователей. Маркетологам следует помнить об этом балансе и стремиться создавать ненавязчивую рекламу, соответствующую предпочтениям пользователей.
  5. Платформа предлагает решения для измерения всей воронки продаж, такие как Reddit Brand Lift и Conversion Lift, чтобы помочь рекламодателям оценить влияние своих кампаний. Рекламодателям следует использовать эти инструменты и внимательно следить за эффективностью своей кампании, чтобы оптимизировать ее для достижения лучших результатов.
  6. Несмотря на то, что Reddit предоставляет рекламодателям захватывающие возможности, важно подойти к платформе с индивидуальной стратегией, учитывая уникальные характеристики ее пользовательской базы и динамику сообщества. Маркетологам следует потратить время на понимание рекламных предложений платформы, возможностей таргетинга и лучших практик, чтобы максимизировать свой успех на Reddit.

Часто задаваемые вопросы

Как работает таргетинг рекламы Reddit на основе интересов?

Таргетированная реклама Reddit основана на взаимодействии пользователей с контентом платформы. Это означает, что рекламодатели могут общаться со зрителями, чьи интересы совпадают с их наблюдаемым поведением на Reddit, независимо от того, относятся ли эти интересы непосредственно к товарам или услугам рекламодателя. По сути, он позволяет осуществлять таргетинг на основе участия в темах или сообществах, которые могут не иметь прямого отношения к продвигаемому продукту или услуге.

  • Использует машинное обучение для анализа поведения пользователей
  • Позволяет нацеливаться за пределы прямого интереса к продукту.
  • Позволяет обнаруживать неочевидные связи
  • Максимизирует охват заинтересованных пользователей

Как профессионал в области цифрового маркетинга, я бы выработал стратегию, сосредоточив внимание на людях, которые проявляют интерес к органическим продуктам питания. Причина этого проста: эти люди более склонны ценить наш бренд и взаимодействовать с ним, учитывая, что они предпочитают натуральные, экологически чистые продукты, такие как наши предложения по йоге.

Какова роль искусственного интеллекта в рекламных решениях Reddit?

ИИ вносит значительный вклад в рекламные стратегии Reddit. Используя сложные параметры таргетинга, автоматическую оптимизацию позиций объявлений и креативную адаптацию, он повышает производительность, эффективность и прибыльность.

  • Варианты таргетинга. Расширенный таргетинг позволяет более целенаправленно доставлять рекламу соответствующим аудиториям.
  • Автоматическая оптимизация: искусственный интеллект оптимизирует места размещения объявлений для повышения эффективности.
  • Кастомизация: искусственный интеллект помогает создавать более индивидуальный рекламный контент.

Объединив технологии искусственного интеллекта, специалисты по маркетингу теперь могут адаптировать сообщения к конкретным моментам, повышая эффективность своих кампаний и повышая окупаемость инвестиций (ROI).

Как Reddit совмещает рекламные предложения с пользовательским опытом?

Поскольку Reddit расширяет свои рекламные возможности, он стремится поддерживать благоприятный пользовательский опыт. Чтобы достичь этого баланса, платформа вводит настройки рекламы, контролируемые пользователем и основанные на предпочтениях.

  • Места размещения рекламы: новые места размещения рекламы на различных платформах, таких как лента, комментарии и результаты поиска.
  • Пользовательские элементы управления: пользователи могут управлять такими категориями объявлений, как религиозный и политический контент.
  • Ненавязчивая реклама. Реклама разрабатывается с учетом предпочтений пользователя.

Приняв этот метод, преимущества получают как рекламодатели, так и пользователи. Рекламодатели могут общаться с внимательной аудиторией, в то время как пользователи сохраняют возможность настраивать показ рекламы в соответствии со своими предпочтениями.

Какие инструменты предлагает Reddit для измерения эффективности рекламы?

Reddit предлагает рекламодателям различные инструменты для оценки эффективности своей рекламы на разных этапах. Эти инструменты охватывают как собственные решения, так и внешнее партнерство.

  • Reddit Brand Lift: измеряет влияние на узнаваемость бренда.
  • Рост конверсий: оценивает влияние на конверсии.
  • API конверсий (CAPI): интегрируется со сторонними инструментами для лучшего анализа данных.

Эти инструменты позволяют рекламодателям оптимизировать свои кампании и эффективно измерять рентабельность инвестиций.

Смотрите также

2024-09-09 17:09