Google отвечает на сайт, который потерял позиции после атаки DDoS со стороны поискового робота Google

Проще говоря, Джон Мюллер из Google рассказал о ситуации, когда вебсайт столкнулся с огромным количеством запросов от ботов Google для доступа к несуществующим страницам. Один такой несуществующий URL получил более двух миллионов посещений от ботов. Этот чрезмерный трафик был похож на распределенную атаку отказа в обслуживании (DDoS) против конкретных страниц сайта. Издатель ожидал, что это может повлиять на его бюджет сканирования и позиции в поисковой выдаче, и действительно произошло: сайт испытал снижение своей видимости в результатах поиска.

Страницы без индекса удалены и преобразованы в 410

Проще говоря, код ответа сервера 410 Gone относится к категории кодов ошибок, начинающихся с 400, которые указывают на недоступность веб-страницы. В отличие от ошибки 404, которая лишь означает, что определённая страница не найдена в данный момент, ошибка 410 подразумевает, что запрошенная страница была окончательно удалена и больше не вернётся.

Как эксперт по SEO, недавно я столкнулся с ситуацией, когда пользователь три недели назад опубликовал запрос на Reddit о проблеме, которую он испытывал. Он упомянул, что имел примерно 11 миллионов URL, которые не должны были быть доступны, и полностью их удалил, начав возвращать код ответа 410. Однако, несмотря на это действие, Googlebot продолжал искать пропавшие страницы в течение приблизительно полутора месяцев. Это вызвало у него опасения по поводу исчерпания бюджета на сканирование сайта (crawl budget) и потенциальных последствий для его рейтинга в поисковых системах.

Мюллер в то время передал их на страницу поддержки Google.

Потери позиций, поскольку Google продолжает наносить удары по сайту на уровне DDoS.

Приблизительно три недели прошло, и ситуация осталась без изменений. В последующем посте они упомянули получение более пяти миллионов запросов на несуществующие страницы. Конкретный URL, который они предоставили, был скрыт мной для защиты конфиденциальности; в противном случае вопрос остается слово-в-слово как был размещен.

Бот Google постоянно сканировал определенную веб-страницу, включая её параметры запроса, несмотря на то, что последние два месяца он постоянно выводил сообщение об ошибке ‘410 Gone’. За последний месяц наш сайт получил примерно 5.4 миллиона запросов от бота Google. Из них около 2.4 миллионов были направлены к конкретному URL: https://example.net/software/virtual-dj/?feature Этот URL часто запрашивался с параметром строки ‘?feature’. В течение этого периода мы заметили значительное снижение присутствия нашего сайта в результатах поиска Google, и трудно не предположить связь между этими явлениями — ситуация выглядит подозрительной. Пострадавший URL следующий: https://example.net/software/virtual-dj/?feature=… Оказалось, что Google обнаружил эти адреса из-за непреднамеренного отображения их в JSON ответе, генерируемом Next.js; они не являются реальными ссылками на самом сайте. В качестве опытного вебмастера я обновил функциональность нашей системы ‘multi-feature’. Теперь её можно активировать через строку запроса ‘?mf’, которую стратегически включили в файл robots.txt для упрощения внедрения. Не будет ли проблем, если добавить что-то вроде этого в наш файл robots.txt: Disallow: /software/virtual-dj/?feature=* Основная цель — предотвратить чрезмерное сканирование сайта ботом Google, которое может привести к нежелательным последствиям из-за перегрузки наших логов.

Согласно Джону Мюллеру из Google, стандартная практика для Google — периодически проверять страницы, которые ранее отсутствовали. Это происходит потому, что Google предполагает, что владельцы веб-сайтов могут случайно удалить страницу, и путем периодической проверки восстановления страниц они стремятся предоставить полезную услугу издателям.

Google может пересмотреть старые веб-страницы, которые существуют некоторое время, и вы можете заметить большее их количество вновь появляющихся, особенно если таких страниц много. Нормально, что страницы со временем исчезают, даже в больших количествах. Однако также допустимо заблокировать доступ Google к вашим страницам с помощью файла robots.txt, если частые запросы вызывают неудобства.

Осторожно: Технические аспекты SEO впереди

В этом разделе важно понимать, что SEO может быть довольно сложным. Джон Мюллер советует, что хотя использование файла robots.txt и кажется хорошей идеей, это непреднамеренно может вызвать проблемы с отображением страниц, которые должны быть доступны.

Он в основном советует человека, задающего вопрос,

  • Перепроверьте, что ?feature= URL не используется вообще ни в каком фронтенд коде или JSON запросах, которые отвечают за работу важных страниц.
  • Используйте инструменты разработчика в Chrome, чтобы смоделировать ситуацию блокировки этих URL-адресов и выявить возможные проблемы на ранней стадии.
  • Проверяйте Поисковую консоль Google на наличие мягких ошибок 404, чтобы выявить любое непреднамеренное влияние на страницы, которые должны быть проиндексированы.

Ключевой момент заключается в том, чтобы убедиться, что эти ответы действительно являются ошибками 404/410, а не случаями их использования в JavaScript на страницах, предназначенных для индексации. Учитывая упоминание JSON payload, важно осознавать эту разницу. Если ваши веб-страницы отображаются на стороне клиента с помощью JavaScript, попробуйте найти места вызова URL (если это возможно), затем используйте инструменты разработчика Chrome, чтобы заблокировать эти URL и наблюдать за изменениями при загрузке страницы. Если возникают сложности с определением их местоположения, временно исключите этот раздел из данных, а затем следите за Soft-404 ошибками в Google Search Console на предмет любых заметных изменений. Если вы не используете клиентскую сторону рендеринга JavaScript, можете игнорировать этот абзац 🙂

Разница между очевидной причиной и истинной причиной

Рекомендация Джона Мюллера тщательно проверить потенциальные ошибки со стороны издателя оправдана. Похоже, что ошибка издателя могла вызвать серию событий, приведших к индексации страниц вопреки их желанию. Таким образом, имеет смысл призвать издательство искать другие возможные объяснения снижения видимости в поиске. Этот сценарий часто подразумевает, что очевидная причина не является истинным источником проблемы. Поэтому совет Мюллера продолжать поиск корневой причины — это мудрый курс действий.

Прочтите оригинальную дискуссию здесь.

Смотрите также

2025-06-10 00:09

Каковы хорошие бенчмарки рекламных объявлений в Google на 2025 год? [ИССЛЕДОВАНИЕ]

Оставаться информированным о последних отраслевых бенчмарках Google Ads является существенной частью эффективного реагирования на запросы клиентов или руководителей относительно показателей производительности.

  • Это хороший CTR?
  • Почему у нас такая высокая стоимость привлеченного клиента?
  • Как вообще выглядит хороший коэффициент конверсии?

Такие вопросы регулярно возникают, особенно в периоды ограниченных бюджетов или незначительных ухудшений производительности.

Однако без актуальных данных бенчмаркинга в вашем распоряжении такие дискуссии часто основаны на спекуляциях, общих утверждениях или даже вводящей в заблуждение информации, основанной на старых данных, поскольку рекламный рынок постоянно развивается и текущий конкурентный ландшафт может значительно отличаться от изображенного в этих отчетах.

Компания WordStrEaM от LocaliQ недавно пересмотрела свои бенчмарки поисковой рекламы на год 2025, собрав достоверные данные с множества кампаний в Google и Microsoft Ads, охватывающих более 20 различных отраслей.

Информация состоит из множества данных, полученных в результате многочисленных рекламных кампаний, которые охватывали платформы Google и Microsoft и фокусировались на ведущих секторах рынка. Среди этих значительных отраслей:

  • Искусство и развлечения.
  • Автомобильный.
  • Образование.
  • Финансы и страхование.
  • Здоровье и фитнес.
  • Ремонт дома.
  • Торговля и розничная торговля.
  • Путешествие.

Учтите, что установленные цели служат базой, однако крайне важно понимать, что множество переменных влияет на определение достижимых ориентиров в соответствии с вашей специфической бизнес-контекстом.

Наше намерение состоит в том, чтобы данные помогли вам получить ясное понимание бизнес-целей и конкурентов, что позволит оценить эффективность своей работы.

В этом отчете вы найдете эталонные показатели по поисковым кампаниям в Google и Microsoft Ads для:

  • Показатель кликабельности (CTR).
  • Средняя цена за клик (СРК).
  • Коэффициент конверсии
  • Стоимость за лид (стоимость перехода по ссылке).

Давайте разберём данные.

Средняя кликовая активность в рекламных сетях Google и Microsoft по отраслям

В среднем показатель кликабельности как для рекламы Google, так и для рекламы Microsoft по всем секторам за последний год составил приблизительно 6,66%.

В отличие от первого года сбора данных в 2015 году, типичная кликабельность поисковых объявлений была сравнительно низкой и составляла около 1,35%.

В данном бизнес-секторе категория Искусство и Развлечение имела самый высокий показатель кликабельности, поражающую 13.10%.

На другом конце спектра находились стоматологи и стоматологические услуги с CTR в 5,44%.

Анализ коэффициента кликов (CTR) является только частью головоломки, его не следует рассматривать как окончательный показатель успеха рекламы при оценке общей эффективности.

На распространенность показателей эффективности в CTR влияют следующие факторы:

  • Конкуренция ваша? (Является ли поисковый результат насыщенным?)
  • Ваша стратегия ставок.
  • Вашу позицию на странице результатов.
  • Релевантность рекламного текста.
  • Выбор целевой аудитории.

Высокая кликабельность (CTR) не означает автоматически высокую эффективность рекламы. Это может просто указывать на то, что ваше объявление привлекает внимание к клику, но не всегда является успешным в превращении кликов в продажи или желаемые действия. Поэтому CTR следует рассматривать как один из элементов головоломки при оценке производительности рекламы, а не полную картину.

Как опытный вебмастер, могу заверить, что когда CTR моего сайта опускается ниже нормы в моей отрасли, инструменты диагностики, такие как Google’s Quality Score, становятся крайне необходимыми. Они помогают мне определить и исправить проблемные аспекты, начиная от недостаточно релевантных объявлений до недостижения ожидаемой частоты кликов, обеспечивая более эффективную стратегию цифрового маркетинга для моего сайта.

Средняя стоимость клика в рекламе Google и Microsoft по индустрии

Как профессионал в области цифрового маркетинга, я недавно заметил, что средняя стоимость клика (СРС) для рекламы как на платформах Google Ads, так и на Microsoft Ads варьируется по различным секторам за последний год составляет примерно 5,26 доллара США.

Как профессионал в области цифрового маркетинга, я заметил интересную тенденцию относительно адвокатов и юридических услуг: хотя их кликабельность была ниже среднего, они имели самую высокую среднюю стоимость за клик (CPA) примерно на уровне 8.58 долларов США в 2025 году.

Этот показатель не вызывает удивления, учитывая более высокую стоимость приобретения клиента.

В нижней части спектра область искусства и развлечений зафиксировала наименьшую типичную стоимость клика (СРС), которая составила около 1,60 доллара США.

Подобно анализу метрики CTR, средняя цена за клик (CPC) является лишь одним показателем эффективности.

Пример: В некоторых случаях, ваши рекламные объявления могут показывать меньшую стоимость за клик (CPC) и коэффициент кликабельности (CTR), чем в среднем. Это может указывать на то, что ставки недостаточно агрессивны для конкуренции на рынке, поэтому стоит задуматься об их повышении.

С точки зрения цифрового маркетолога, если ваш стоимость за клик (CPA) превышает среднее значение, крайне важно внимательно отслеживать эти объявления. Причина в том, что вам понадобится убедительное доказательство для демонстрации возврата инвестиций на рекламу или расходы.

Средние конверсионные ставки в рекламных сетях Google и Microsoft по отраслям

В среднем за последний год коэффициент конверсии в рекламе от Google и Microsoft во всех отраслях составил около 7,52%.

Средняя конверсия определяется путем деления общего числа привлеченных лидов или продаж на общее количество кликов по вашей рекламе.

При анализе данных за 2025 год средний коэффициент конверсии значительно различался в различных отраслях.

На вершине шкалы производительности категория Авто (Automotive) показала наивысший коэффициент конверсии — солидные 14,67%, следом идет Животные и домашние питомцы с достойным показателем 13,07%.

К отраслям, которые имели самый низкий коэффициент конверсии, относились:

  • Финансы и страхование: 2,55%
  • Мебель: 2,73%
  • Недвижимость: 3,28%

При изучении этих отраслей и продуктов, которые они продают, такие коэффициенты конверсии имеют смысл.

Для многих покупателей мебель представляет собой значительную статью расходов. Поэтому они обычно тратят значительное время на проведение онлайн-расследований перед принятием решения о покупке. Кроме того, из-за ее стоимости многие потребители предпочитают приобретать ее напрямую в физических магазинах, а не через интернет.

В этой конкретной области скорость конвертации действий может быть относительно низкой, но сейчас особенно важно отслеживать офлайн-конверсии, такие как посещения магазинов или продажи, поскольку они играют решающую роль в нашем анализе.

В индустрии одежды кажется, что каждый день появляются новые бренды.

За последние несколько лет наблюдается значительное увеличение числа поставщиков и перепродовцов, предлагающих кроссовки Nike, если выполнить простой поиск в интернете.

Количество конкуренции может непосредственно влиять на низкий (или высокий) показатель конверсии.

Средняя стоимость на одного потенциального клиента в рекламе Google и Microsoft по отраслям.

В среднем стоимость одного лида как в рекламе от Google, так и в рекламе от Microsoft за последний год составляла примерно 70,11 доллара США во всех отраслях.

Как специалист по цифровому маркетингу я всегда внимательно слежу за средней стоимостью лида, так как это ключевой показатель эффективности (KPI), который помогает мне оценивать результативность моих рекламных кампаний при анализе производительности.

Это остается одной из наиболее внимательно изучаемых метрик как маркетинговыми, так и финансовыми отделами.

Неожиданно обнаружить, что в некоторых отраслях показатель стоимости привлечения лида (CPL) значительно выше, чем в других. Факторы, влияющие на CPL, могут включать: 1. Конкуренция в отрасли: Высоконапряженные индустрии часто имеют более высокую стоимость для привлечения лидов из-за повышенных рекламных и маркетинговых усилий. 2. Размер целевой аудитории: Отрасли с меньшими или нишевыми целевыми аудиториями могут столкнуться со сложностями (и, следовательно, высокими расходами) при определении потенциальных клиентов. 3. Методы рекламы: Некоторые отрасли могут полагаться на более дорогостоящие методы рекламы по сравнению с другими для эффективного достижения своей желаемой аудитории. 4. Качество лидов: Сложность и специфичность предлагаемых продуктов или услуг в некоторых отраслях может требовать более тщательного процесса квалификации, что приводит к высокому CPL. 5. Сезонность: Отрасли с сезонным спросом могут испытывать колебания объема и стоимости привлечения лидов в течение года.

  • Средний CPU.
  • Средний показатель CTR (это влияет на ваш CPC).
  • целевая аудитория
  • Конверсия.
  • Тип продукта/услуги, которую вы продаете.

В среднем цена за клик (CPA) во всех отраслях составила 70.11 долларов.

Как специалист по SEO могу уверенно сказать, что когда дело касается стоимости за лид (Cost Per Lead — CPL), сектор адвокатов и юридических услуг лидирует со средним значением в 131.63 доллара США за один лид.

Хотя стоимость привлечения клиентов (CPA) может быть значительной, многие компании в этой отрасли часто рассматривают ее как ценное вложение ввиду значительных доходов, получаемых от каждого обслуживаемого клиента.

Отраслям с продукцией и услугами по более низкой цене, вероятно, следует установить более низкую цель стоимости привлечения клиента.

В 2025 году секторы с самой низкой стоимостью лида (CPL) были автомобильный ремонт, услуги и запчасти приблизительно на уровне $28,50, а следом шли искусство и развлечения с ресторанами и едой по примерно $30,27 каждая.

По сравнению с данными прошлого года, 13 из 23 отраслей сообщили об увеличении CPL.

За последние несколько лет наблюдались сильные колебания стоимости за лида (Cost Per Lead, CPL) из-за высокой инфляции и экономической неопределенности. Тем не менее, недавние данные показывают, что годовые изменения CPL стали более стабильными.

Краткое изложение

Бенчмарки просто служат инструментом сравнения; они не являются системами оценки вроде оценочных таблиц и не учитывают уникальные аспекты вашего бизнеса, такие как идентификация бренда, целевая аудитория, цели или технологическая инфраструктура.

Если ваши показатели слегка отличаются от средних значений, это не обязательно свидетельствует о плохой работе с вашей стороны.

Если вы хотите добиться прогресса во второй половине года, попробуйте следовать нижеуказанным советам:

  • Убедитесь, что ваши цели согласованы с реальным покупательским процессом в вашей отрасли.
  • Исследуйте альтернативные платформы, такие как реклама в Microsoft Ads, чтобы диверсифицировать риски CPC.
  • Приоритетом должна быть релевантность рекламы и удобство целевой страницы.
  • Улучшите отслеживание офлайновых конверсий, где применимо.
  • Не забывайте проверять (и перепроверять) вашу стратегию ключевых слов и ставок.
  • Не забывайте о мобильных версиях!

Обязательно изучите полный отчет от WordsTreem местного отделения Liqia, который предоставляет информацию о контрольных показателях и рекомендации по улучшению ваших маркетинговых кампаний.

Смотрите также

2025-06-09 16:40

Реакция соучредителя WordPress Мюлленвега на проект FAIR

Не было удивлением, что Мэтт Малленвег был спрошен об этом, и действительно, его спросили не один раз, а дважды. Малленвег вежливо ответил на вопросы, однако проявил осторожность в связи с недавним объявлением о проекте FAIR, которому меньше 24 часов.

Реакция на Проект Фэйр

Во время сессии вопросов и ответов Мюлленвега спросили о его видении того, как эти инициативы могут гармонично сосуществовать с WordPress, а также каким он представляет идеальный результат в этом сценарии.

Я верю, что одно из его очарований заключается в том факте, что такое создание возможно с использованием API WordPress. Сейчас я не решаюсь слишком глубоко погружаться в это исследование, поскольку узнал об этом только вчера и у меня было ограниченное время на изучение. Кажется, там много кода и сложных деталей. Печально, что команда, которая заявляла о желании сотрудничества и открытости, работала над этим проектом тайно шесть месяцев без нашего ведома. Однако мы можем двигаться дальше от этого неожиданного открытия и сосредоточиться на следующем этапе.

Пользователи хотят федеративный репозиторий?

Вместо этого Малленвег изменил фокус с личного мнения и задал вопрос: ‘Что вы, как пользователи WordPress, думаете об этой идее?’ Кроме того, он отметил масштабную задачу создания децентрализованной системы для репозитория, подчеркнув ее значимость.

«Я считаю, что нам нужно иметь в виду следующее: во-первых, о чем просят пользователи? Какие основные проблемы их волнуют при поиске надежных ресурсов, обеспечении безопасности и получении регулярных обновлений? Важно отметить, что многие сайты были скомпрометированы из-за устаревших плагинов. Эти аспекты находятся на переднем крае моих размышлений относительно каталога плагинов, особенно касательно надежности и безопасности для домена .org.

B общем, мы достигли примерно 72 000 плагинов и тем, занимающих около 3,2 терабайтов данных в сжатом (zip) формате. Однако это число не включает дополнительные данные, такие как историю SVN. Это означает, что у нас есть значительный объем данных, который необходимо тщательно управлять. Кроме того, если бы мы настроили 500 зеркал и все они одновременно загружали каталог, это могло бы перегрузить нашу систему, подобно атаке распределенного отказа в обслуживании (DDoS)».

Примерно через двадцать минут подошел другой человек и задал тот же вопрос заново, рассказав о своем большом опыте работы с WordPress и выразив свое мнение относительно потенциальных выгод проекта FAIR.

За последние 14 лет я был ценным членом команды по коммуникации и совсем недавно добавил свои навыки в команду для анализа плагинов. Во время моего пребывания на должности моим основным фокусом всегда было удовлетворение потребностей пользователей – каждое наше решение принималось, исходя из этого принципа. В команде анализа плагинов мы также учитываем потребности авторов плагинов. Таким образом, наша работа направлена на то, чтобы сделать жизнь проще и более выгодной как для создателей плагинов, так и для их пользователей.

По существу, проект Fair представляет собой автономное и доверенное собрание надежных плагинов и команд разработчиков, работающих под эгидой Linux Foundation. Это сотрудничество с Linux Foundation имеет значительный вес.

B целях уточнения: когда я настраивал свой сайт на WordPress, то специально использовал зеркальный сайт для обновлений вместо прямого обращения к WordPress.org. Такой подход помогает снизить нагрузку на WordPress.org, распределяя работу между несколькими серверами и делая процесс более эффективным для всех участников.

Я хотел бы знать, доверяете ли вы моему решению, но кажется мне, что этот проект уделяет первостепенное внимание нуждам как пользователей, так и разработчиков. Может быть, WordPress.org заинтересована в сотрудничестве по данному проекту?

Ответ Мулленвега казался взвешенным, предполагая ограниченное понимание проекта FAIR сверх того, что было раскрыто во время публичного объявления фонда Linux.

Абсолютно верно, мы учитываем каждый аспект; однако основываясь на ваших аргументах, я считаю, что существует множество препятствий. Так, например, атака на цепочку поставок потребует взлома сайта WordPress.org, который остается защищенным и не подвергся взлому до сегодняшнего дня.

В этот момент в зале раздался громкий смех, захвативший Мюлленвега врасплох.

Затем он продолжил, предлагая представление о сложности федеративного репозитория тем и плагинов.

Неожиданно теперь множество локаций могут быть под угрозой риска, и очевидно существует несколько методов для такого нарушения. Кроме того, мы выявили несколько сайтов, испытывающих проблемы с доступностью. Это изменение также может вызвать трудности для WordPress.org, поскольку усложнит процессы вроде поэтапного развертывания или обновлений. Например, предоставление возможности авторам плагинов распространять свою работу среди небольшого процента пользователей вначале перед оценкой результатов потребует последующих проверок и потенциального дальнейшего распространения. Такой функционал выразили интерес многие авторы плагинов. Этот акт нарушит всю статистику аналитики, которую мы предлагаем, а также ту, что мы используем для принятия решений, например определение поддерживаемых версий PHP. Значительный фактор успеха WordPress – это его надежная инфраструктура и непрерывные улучшения на основе обратной связи с wordpress.org. Они спрашивают: ‘Как я могу быть уверен, что это заслуживает доверия? Как я знаю, что эти отзывы настоящие? Кто модерирует? Кто проверяет IP этих разных отзывов? Какой рейтинг у этого плагина? Какова его совместимость? Совместим ли он с моими другими плагинами?’ Вот что говорят пользователи: ‘Я не требую, чтобы это было размещено где-то еще. Это просто один из возможных сценариев.’ Вместо глубокого погружения в детали на данный момент я хотел бы внимательнее изучить код и поделиться им со своими коллегами. Кажется поспешным делать окончательные выводы о том, что мы будем или не будем делать через 24 часа после начала работы.’

В данном моменте Мюлленвег оценил тот факт, что люди были конструктивны вместо того чтобы спорить.

Как профессионал в области диджитал маркетинга, я должен признать — действительно увлекательно наблюдать за тенденцией людей сосредоточиться на кодиннге вместо простых споров, обсуждений или написания блогов. На мой взгляд, этот переход к практическому применению является эффективным способом решения потенциальных разногласий и стимулирования инноваций. Хотя это может быть специализированная область, используемая лишь немногими, например конкретными платформами хостинга, всегда существует вероятность появления чего-то революционного из этой сферы.

После этого он вернулся к описанию элементов, которые еще предстоит изучить, стремясь донести сложность разработки надежной, децентрализованной системы баз данных.

Так же как и есть задачи, которые мы вероятно должны выполнить во время процесса ‘подключения и проверки’, давайте обсудим управление административными баннерами. Как это регулируется в децентрализованной системе FAIR (Находимость, Доступность, Взаимодействуемость, Повторное использование)?

После того как её спросили о решении множества проблем, она ответила, что не самая умная в комнате, но предложила вместо этого сотрудничество. С юмором добавила, что можно попросить помощи у ChatGPT, чем вызвала смех и аплодисменты, тем самым разрядив обстановку и завершив обсуждение на радостной ноте.

Просмотри секцию вопрос-ответ примерно на восьмой часовой отметке видео.

https://www.youtube.com/watch?v=PSD6yvp-UHE

Смотрите также

2025-06-09 12:39

Обновление структуры данных рецептов Google подтверждает критерии ранжирования.

Как опытный веб-мастер, я заметил, что недавно Гугл пересмотрел свои рекомендации по структурированным данным Schema.org для рецептов, предлагая более чёткие инструкции о том, как атрибут image structured data влияет на его отображение и предоставляя ценную информацию об улучшении видимости моих изображений рецептов в стандартных результатах поиска. Чтобы узнать больше об этом обновлении и эффективно оптимизировать изображения своих рецептов, я обязательно проконсультируюсь с подробной информацией, которую предоставил Гугл.

Схема org структурированных данных и богатых результатов

Говоря проще, и в сообществе SEO, и среди издателей зачастую результаты поиска, появляющиеся естественно (без оплаты), называют «органическими результатами поиска» или «десятью синими ссылками». С другой стороны, Google называет их просто «текстовыми результатами.»

Использование структурированных данных для контента вашего сайта может сделать его подходящим для отображения в улучшенных результатах поиска Google (богатые сниппеты), однако обычно это не влияет напрямую на ранжирование контента в обычных текстовых поисковых системах.

Недавно Google пересмотрел свои рекомендации по структурированным данным рецептов, включив два новых утверждения. Данное изменение основано на основной идее перемен.

Как специалист по цифровому маркетингу хочу уточнить кое-что о разметке рецептов: изменение свойства изображения не повлияет на изображение, отображаемое для текстового результата. Для обеспечения оптимальной видимости в текстовых результатах поиска важно следовать лучшим практикам SEO изображений.

Говоря проще, добавление данных структурированного рецепта влияет на то, какие изображения отображаются при показе рецепта как богатый результат. Однако эта структура данных не оказывает влияния на позицию или ранжирование изображений в обычных результатах поиска.

Ранжирование изображений в результатах поиска по тексту

Google предлагает документацию по лучшим практикам работы с изображениями, которая определяет стандартные элементы HTML такие как и . Кроме того, Google рекомендует использовать карту сайта для изображений (image sitemap), что является картой сайта, специально предназначенной для изображений.

Обратите особое внимание на то, чтобы не использовать размытые или неясные изображения. Вместо этого выбирайте четкие и ясные для максимизации их видимости в результатах поиска.

Понято, что некоторые фотографии могут иметь преднамеренно мягкий фокус для эффективности (размытие уменьшает размер файла) и чтобы подчеркнуть контраст между передним планом и задним фоном. Тем не менее, Google рекомендует использовать четкие изображения и предостерегает от использования размытия в фотографиях. Хотя Google напрямую не указывает это как фактор ранжирования, они советуют такой подход.

Четкие фотографии высокого разрешения более эффективно привлекают пользователей по сравнению с размытыми или нечеткими изображениями. Кроме того, резкие изображения, представленные в виде эскизов, кажутся пользователям более привлекательными, что может повысить вовлеченность пользователей и трафик.

С моей точки зрения, кажется разумным минимизировать чрезмерное использование размытия изображений. Лично я заметил, что намеренно размытые изображения редко появляются в результатах поиска. Интересно отметить, что мои наблюдения совпадают с тем, что Google предпочитает чёткие картинки размленным.

Прочтите обновленную документацию Google по структурированным данным рецепта с описанием изображений здесь:

https://developers.google.com/search/docs/appearance/структурированные данные/рецепт#изображение

Прочтите больше об изображениях в текстовых результатах поиска Google здесь.

Читайте о размытых и четких изображениях здесь:

На Google Images рекомендуется использовать высококачественные фотографии, оптимизированные для скорости загрузки. Это означает, что изображения должны не только хорошо выглядеть, но и быстро загружаться, обеспечивая хороший пользовательский опыт.

Смотрите также

2025-06-06 22:39

Недавно опубликованные данные показывают, что обращения к поиску искусственного интеллекта на десктопах доминируют.

Недавнее обновление от платформы BrightEdge’s Enterprise SEO выявляет уникальные тенденции в работе крупных систем искусственного интеллекта и чат-ботов. Более того, платформа предупреждает о возможных изменениях в случае, если Apple решит перейти с Google как поисковой системы по умолчанию в Safari.

Превосходство искусственного интеллекта в трафике на рабочем столе

Среди значительных выводов, сделанных из данных BrightEdge, стоит отметить, что значительная часть трафика сайта происходит от чат-ботов AI, поисковых систем и пользователей на настольных устройствах. Однако интересная аномалия заключается в том, что Google Search известен тем, что генерирует больше трафика с мобильных устройств, чем с десктопов.

Отчет указывает на то, что примерно 94% трафика ChatGPT приходится на настольные приложения, в то время как лишь около 6% идет от мобильных приложений. BrightEdge предполагает, что это расхождение в использовании мобильного приложения может быть связано с тем, что мобильное приложение ChatGPT показывает предварительный просмотр внутри самого приложения, требуя дополнительного клика пользователя для перехода к внешнему сайту. Это дополнительное действие может создавать препятствия для реферальных переходов, которых нет на настольных устройствах.

Однако это не объясняет, почему у Perplexity, Bing и Google Gemini наблюдается схожее доминирование трафика на десктопах. Возможно ли, что пользователи на настольных компьютерах используют ИИ для бизнес-целей, тогда как мобильное использование носит более непринужденный характер? Увеличение мобильного траффика от поисковых запросов Google может указывать на контекстуальное объяснение различия в мобильным трафике между поиском по ИИ и чатботами.

Хотя Google занимает впечатляющую долю рынка в 89% для общих поисковых запросов и 93% на мобильных устройствах, его значимость наиболее заметна в поиске на мобильных веб-сайтах. Данные от BrightEdge показывают, что телефоны Apple составляют примерно 57% мобильного трафика Google к брендовым сайтам США и Европы. Учитывая, что Safari является браузером по умолчанию у порядка миллиарда пользователей, любое потенциальное изменение этой настройки могло бы мгновенно изменить направление множества поисковых запросов. Технология, разработанная Apple, под названием Apple Intelligence, которая работает с любыми поставщиками, может привести к значительным изменениям в интернет-поиске, как мы его знаем сейчас. Несмотря на то, что инструменты искусственного интеллекта для генерации контента стали очень популярными на устройствах iOS, большинство онлайн-поисков осуществляется через Google при использовании Safari — браузера по умолчанию на iPhone и iPad. Поскольку Apple контролирует Safari, эта позиция предоставляет им ключевое положение на рынке мобильных поисковых запросов.

Здесь приведены статистические данные о трафике и реферальных источниках от BrightEdge.

  • Поиск Google: Только крупный поиск с искусственным интеллектом, который получает большинство трафика от мобильных устройств (53% мобильный против 44% настольный)
  • ЧатГПТ: 94 процента с рабочего стола, всего 6 процентов мобильных рефералов
  • Смятение: 96,5 % на десктопе, 3,4 % на мобильном устройстве
  • Бинг: 94% настольный компьютер, 4% мобильный телефон
  • Google Gemini: 91% рабочего стола, 5% мобильного устройства

Apple может сыграть роль короля? / Может ли Apple стать королем?

По мере приближения конференции разработчиков Worldwide Developers Conference (WWDC) от Apple, люди будут пристально следить за обновлениями браузера Safari от компании Apple, который устанавливает параметры поиска по умолчанию на почти миллиарде устройств. Смена поисковых провайдеров в Safari может привести к существенным изменениям в ландшафте веб-поиска, потенциально определяя новых победителей и проигрывающих игроков.

Путаница возникает из-за того, что изменение настроек по умолчанию браузера Safari потенциально может повлиять на расчеты, связанные с маркетингом поисковых систем по нескольким причинам: 1. Изменение поведения пользователей: модификация дефолтных установок может влиять на взаимодействие пользователей с браузером, что в свою очередь может изменить их поисковые шаблоны и тем самым результаты поиска, которые они видят и кликают. 2. Корректировка алгоритмов: изменения настроек браузера могут побудить поисковые системы перекалибровать свои алгоритмы, влияя на ранжирование результатов поиска и потенциально изменяя видимость и процент переходов по ссылкам для определенных сайтов. 3. Вариации сбора данных: изменение настроек браузера может привести к тому, что поисковыми системами будет собираться другая информация, что может вызвать расхождения в данных, используемых для расчетов маркетинга.

58% трафика мобильных устройств Google к брендовым сайтам приходится на пользователей iPhone. Safari остается браузером по умолчанию для почти миллиарда пользователей. Apple пока не внедрила поиск с искусственным интеллектом в свой мобильный веб-стек.

Выдержки

  • Пользователи настольных компьютеров составляют большинство трафика, передаваемого через аккаунты поиска с помощью ИИ. Большинство трафика поиска, генерируемого ИИ (включая ChatGPT, Perplexity, Bing и Gemini), происходит от настольных устройств, а не мобильных.
  • Поиск в Google является исключением среди других поисковых систем ИИ, так как все еще доставляет большую часть своего трафика через мобильные устройства.
  • Предварительные просмотры в приложении могут ограничивать количество ссылок на мобильный ИИ от ChatGPT. Мобильное приложение ChatGPT требует дополнительного клика для перехода на внешние сайты, что возможно объясняет низкие цифры мобильных реферальных посещений.
  • Позиционирование Apple имеет решающее значение для поискового маркетинга. Устройства Apple составляют более половины мобильного трафика Google на сайты брендов, что означает значительное влияние компании на мобильную поисковую активность.
  • По умолчанию Сафари и большая доля рынка С установленным по умолчанию браузером Safari для почти миллиарда пользователей компания Apple фактически контролирует вход в мобильный веб-поиск.
  • Перплексити имеет возможность увеличить свою долю на рынке Если Apple переведет поиск по умолчанию в Safari к Перплексити, это может существенно изменить конкурентное положение в поисковой рекламе.
  • Искатели должны следить за WWDC, поскольку любое анонсированное изменение в поисковой системе Safari на мероприятии может оказать значительное влияние на поисковый маркетинг.

Этот паттерн может указывать на различия в поведении пользователей настольных компьютеров, которые обычно заняты работой или исследовательской деятельностью, и мобильных пользователей, предпочитающих более расслабленные занятия. BrightEdge дополнительно отмечает проблему внутри приложения ChatGPT, которая потенциально может ограничивать мобильную трафик-референции, вводя барьер для одного клика.

По данным BrightEdge, доминирование Apple в браузере Safari, который предварительно установлен приблизительно на одном миллиарде устройств, может потенциально служить источником нарушения. Это связано с возможностью изменения поисковой системы по умолчанию от Google к другой, что приведет к значительным изменениям в тенденциях трафика мобильного поиска.

Узнайте больше на сайте BrightEdge.

Открытый рубеж мобильного ИИ-поиска

Смотрите также

2025-06-06 16:39