Вызовы 2025 года по основным веб-критериям: WordPress против всех.

Отчет о технологиях Core Web Vital для июня был опубликован, данные за июль еще ожидаются. В этом отчете выделяются системы управления контентом (CMS), демонстрирующие наилучшие показатели по метрикам Core Web Vital (CWV). Важно отметить, что платформа электронной коммерции стала лидером в этом году, несмотря на то, что сайты для покупок часто сталкиваются с проблемами производительности из-за активного использования JavaScript и изображений.

Этот анализ также учитывает показатели Interaction to Next Refresh (INR), поскольку они не совпадают с показателями Content Weighted Visibility (CWV). INR измеряет, насколько быстро веб-сайт обновляет свой визуальный вид после взаимодействия с пользователем, а «следующее обновление» обозначает момент, когда браузер визуально пересматривает веб-страницу в ответ на действия пользователя.

Низкий показатель INP (Interactive Performance) может привести к недовольству пользователей, так как они могут считать сайт медленным или неоперативным. Наоборот, высокий показатель INP указывает на более плавный и приятный пользовательский опыт из-за высокой производительности сайта.

Отчёт по технологии основных веб-показателей

Отчет по технологиям HTTP Archive объединяет два общедоступных набора данных.

  1. Отчёт Chrome UX (CrUX)
  2. Архив HTTP

Отчёт о пользовательском опыте Chrome, или CrUX для краткости, собирает данные от пользователей Chrome, которые решают поделиться статистикой просмотров при посещении примерно 8 миллионов сайтов. Собранная информация включает производительность в отношении эталонных показателей Core Web Vital и оформляется в виде ежемесячных отчётов.

Архив HTTP собирает информацию из экспериментальных анализов, проводимых такими инструментами, как WebPageTest и Lighthouse. Эти инструменты оценивают создание веб-страниц на предмет соблюдения практик оптимизации производительности. Объединяя эти данные, мы можем понять производительность сайта и используемые им технологии.

Данные о производительности Core Web Vitals для систем управления контентом собираются из двух источников: HTTP Archive, который собирает данные посредством лабораторного сканирования и тестирования веб-сайтов, и CrUX, система, которая собирает данные о производительности в реальном мире от пользователей Chrome. Другими словами, отчет объединяет результаты, полученные с этих двух платформ, чтобы предоставить нам информацию о производительности систем управления контентом.

Лидер по показателям Core Web Vitals (CWV)

Стоит отметить, что среди систем управления контентом лидирует Дада. Впечатляюще, 83,63% сайтов, созданных на платформе Дада, получили отличные оценки по основным веб-показателям (CWV). В течение нескольких месяцев Дада занимала первое место и продолжает удерживать эту позицию в текущем месяце.

По результатам оценки взаимодействия до следующего рисования, Duda занимает вторую позицию.

Топ 2 Место CWV CMS: Shopify

Следующая позиция занята компанией Shopify. 75,22% веб-сайтов Shopify получили хорошую оценку CWV.

Это выделяется на фоне того, что большинство сайтов онлайн-покупок часто перегружены большим количеством JavaScript, необходимым для таких функций, как фильтры продуктов, выдвижные опции, визуальные улучшения и различные инструменты, которые покупатели используют для помощи в процессе принятия решений. В отличие от них, Shopify, похоже, успешно решил эти проблемы, что привело к превосходной производительности по сравнению с платформами, такими как Wix и WordPress.

По показателю INP, Shopify занимает 3-е место в верхней части рейтинга.

Третье место в рейтинге CMS для CWV занимает Wix.

Викс немного отстает от Шопиф в рейтинге, но демонстрирует впечатляющую производительность по ключевым показателям веб-производительности (Core Web Vital) и вовлеченности пользователей (Intersectional Performance). В частности, 70.76% сайтов Викса получили хороший результат по Core Web Vital, заняв третье место среди всех платформ. Между тем, внушительные 86.82% сайтов Викса достигли хорошей оценки по Intersectional Performance, что дало им четвертое место в этой категории.

#4 Место рейтинга CMS: Squarespace

Примерно две из каждых трех сайтов на SquareSpace получили достойный рейтинг по ключевым показателям веб-производительности (Core Web Vital), заняв четвертое место среди всех платформ. Различие в баллах между ними и третьим местом, занимаемым Wix, было незначительным.

Проще говоря, SquareSpace лидирует в рейтинге INP с впечатляющим показателем 95.85%, когда речь заходит о сайтах, получивших высокие оценки по INP. Это важно, поскольку INP служит ключевым индикатором предоставления оптимального пользовательского опыта.

#5 в рейтинге CMS: Drupal

Примерно 59 процентов веб-сайтов, созданных на платформе Drupal, получили удовлетворительный показатель Core Web Vitals (CWV), что значительно выше, чем у WordPress, но все еще ниже, чем у Duda.

Однако, что касается оценки INP, Drupal отстает от других, поскольку лишь около 85,5% его сайтов достигают удовлетворительной оценки в этой категории.

#6 Ранжированный CMS: WordPress

Примерно 43.44% вебсайтов на WordPress достигли удовлетворительного результата по Core Web Vitals (CWV), что более чем на пятнадцать процентных пунктов ниже, чем у платформы, занимающей пятое место — Drupaal. Это означает, что не только WordPress имеет самый низкий результат по производительности CWV, но и значительно отстает от других платформ.

В этом году производительность WordPress не показала существенного улучшения. Она начала год с отметки 42.58%, но немного выросла в апреле до 44.93%. Однако затем снова снизилась, достигнув 43.44% в мае, и закончила июнь небольшим ростом менее одного процентного пункта по сравнению с начальным значением года.

WordPress занимает пятое место среди платформ по показателю процента насыщенности информацией (INP), и примерно 85,89% веб-сайтов на WordPress получают удовлетворительную оценку INP, лишь немного опережая Drupal, который занимает последнее место с показателем всего на 0,39 балла ниже.

Однако важно отметить, что полный отчет о оценках INP в WordPress не заканчивается здесь. В начале года WordPress зафиксировал оценку INP на уровне 86.05%. По мере приближения к июню произошло небольшое снижение, и оценка уменьшилась незначительно.

Рейтинги INP по CMS

Ниже вы найдете рейтинг для INP, сопровождаемый процентом сайтов, показывающих удовлетворительный рейтинг INP для каждого CMS:

1. WordPress (75%)
2. Drupal (68%)
3. Joomla! (60%)
4. Magento (50%)
5. Shopify (45%)
6. Wix (35%)
7. Squarespace (30%)
8. Weebly (20%)

  1. Квадратный метр 95,85%
  2. Duda 93.35%
  3. Шоппи 89,07%
  4. Wix 86.82%
  5. WordPress 85,89%
  6. Drupal 85.5%

Ясно, что позиции с третьей по шестую находятся в тесной близости среди топ 80%, их разделяет всего 3,57 процентного пункта между самым низкоранговым Drupaл и третьим по рангу Shopify. В итоге очевидно, что все системы управления контентом показали превосходные результаты по своим баллам INP. Эти показатели впечатляют, особенно для Shopify, который занял второе место по CWV и третье по INP.

выводы

  • Дуда лидирует по показателям Core Web Vitals (CWV), 83,63% сайтов показывают хорошие результаты, сохраняя свои лидирующие позиции.
  • Shopify демонстрирует хорошие результаты. Shopify занимает 2-е место по показателям CWV, что является удивительным результатом, учитывая сложность платформ электронной коммерции, и показывает хорошие результаты по INP.
  • Squarespace №1 по удобству использования
    Squarespace занимает первое место по показателю INP, 95,85% его сайтов демонстрируют хорошую отзывчивость, что указывает на отличный пользовательский опыт.
  • Оценки производительности WordPress застряли.
    WordPress сильно отстает: только 43,44% сайтов проходят Core Web Vitals и не проявляют признаков положительной динамики.
  • Drupal также отстает
    Drupal занимает последнее место по INP и пятое по CWV, при этом более половины его сайтов проходят, но все еще работают хуже, чем большинство конкурентов.
  • Оценки INP обычно высоки для всех CMS.
    Общие оценки INP близки для четырех последних платформ, что говорит о том, что оценки INP относительно высоки для всех систем управления контентом.

Найдите рейтинги Looker Studio здесь (необходимо войти в аккаунт Google для просмотра).

Смотрите также

2025-08-01 13:39

OpenAI удаляет общие чаты ChatGPT из Google Search

Компания OpenAI отключила функцию, которая ранее позволяла обсуждению в ChatGPT появляться в результатах поиска Google при ссылке.

Компания утверждает, что отключила функцию, позволяющую общим беседам отображаться в результатах поисковых систем, и в настоящее время работает над удалением ранее проиндексированных ссылок.

Общие чаты были «краткосрочным экспериментом»

Пользователи, которые использовали функцию

Как опытный веб-мастер, я оказался потрясён в начале этого года, когда незаметно появилась новая функция, вызвавшая большой ажиотаж. Оказалось, что множество частных разговоров неожиданно появлялись среди поисковых результатов, что, понятно, вызвало беспокойство у пользователей.

Первоначально Fast Company обратил внимание на эту проблему, обнаружив около 4500 общих ссылок на ChatGPT, которые были проиндексированы Google. Некоторые из этих ссылок содержали личные данные, такие как имена, резюме, личные переживания и конфиденциальные рабочие материалы.

В заявлении OpenAI подтверждает:

Мы недавно прекратили временный эксперимент в [ChatGPT], в рамках которого пользовательские беседы могли обнаруживаться поисковыми системами, такими как Google. Это была попытка облегчить поиск полезных обсуждений, но она была ограничена по времени. Для участия пользователи должны были явно выбрать чат для публикации и затем согласиться на публикацию, установив флажок, чтобы сделать его видимым для поисковых роботов (как показано ниже).

По сути, из-за функции, позволяющей непреднамеренно делиться контентом, мы решили убрать эту опцию для всех. Кроме того, мы принимаем меры для удаления проиндексированного контента из поисковых систем. Эти изменения будут реализованы и доступны всем пользователям к завтрашнему утру.

Приоритетом является ваша безопасность и конфиденциальность. Мы стремимся постоянно совершенствовать наши продукты и услуги, чтобы наилучшим образом отражать эту приверженность.

Как работала функция

Изначально ссылки на общие беседы в ChatGPT были доступны только тем, у кого был URL-адрес. Однако у пользователей была возможность включить возможность обнаружения, что позволяло поисковым системам, таким как Google, индексировать эти беседы при поиске.

Начиная с этого момента, предыдущая настройка изменена, и наша система больше не будет сохранять или категоризировать прошлые разговоры для будущих поисков. Однако имейте в виду, что старая информация может время от времени появляться в результатах поиска из-за временного хранения данных (кэширования).

По сути, удаление чата из вашей истории ChatGPT не удалит общедоступную ссылку и не приведет к его исчезновению из результатов поисковых систем.

Почему это важно

Чтобы стимулировать пользователей к переработке контента, созданного ChatGPT, была разработана настройка ‘обнаружимости’; однако компания признает, что эта функция также принесла некоторые неожиданные нарушения конфиденциальности пользователей.

Несмотря на то, что OpenAI предоставляет явные параметры для управления видимостью, некоторые пользователи могут не до конца понимать последствия активации поисковой индексации.

Будьте внимательны к типу данных, которыми вы делитесь с чат-ботами на основе искусственного интеллекта. Хотя разговоры могут изначально казаться приватными, функции обмена данными, записи или обучения потенциально могут сделать вашу информацию доступной для других.

Взгляд в будущее

OpenAI сотрудничает с Google и другими поисковыми системами для удаления ранее индексированных общих ссылок из их баз данных и переоценивает управление опциями публичного доступа в рамках работы над возможностями диалога.

Если вы уже делились диалогом с ChatGPT, вы можете просмотреть настройки конфиденциальности и удалить все общие ссылки, перейдя на страницу управления общими ссылками ChatGPT.

Смотрите также

2025-08-01 05:39

Ошибка в системе удаления ссылок Google позволила злоумышленникам скрыть адреса

Недавняя проблема в системе Google позволила пользователям анонимно использовать официальный инструмент для полного удаления любого URL из результатов поиска без последствий. При неправильном использовании этот инструмент мог существенно повлиять на конкурирующие сайты, полностью исключив их URLs из поискового индекса Google. Замечательно то, что Google был осведомлён об этой ошибке с 2023 года, однако до сих пор не принял мер по её устранению.

Инструмент Использован Для Управления Репутацией

Несмотря на различные трудности, как репортер, так и Фонд свободы прессы успешно отстояли свою позицию в суде, удерживая центральную статью в сети до тех пор, пока ее не начали удалять с помощью инструмента Google Remove Outdated Content. Восстановление веб-страницы с помощью Google Search Console было простым процессом, но злоупотребления продолжались. Это побудило начать обсуждение в Сообществе помощи Google Search Console.

Человек опубликовал описание происходящего и спросил, есть ли способ блокировать злоупотребление этим инструментом. В посте утверждалось, что злоумышленник выбирает слово, которое уже не встречается в оригинальной статье, и на этом основании требует убрать статью из поискового индекса Google.

Мы обнаружили, что около дюжины наших статей были удалены. Чтобы убедиться в этом, вы можете проверить, отображаются ли они в Google, выполнив поиск по точному названию статьи в кавычках с добавлением названия нашего сайта. Если результаты поиска не отображаются, это говорит о том, что статьи действительно отсутствуют.

Основываясь на моём опыте как опытного вебмастера, я часто использую Google Search Console (GSC). Недавно я заметил там запрос на удаление устаревшего контента, помеченный как «ОДОБРЕН». Однако я решил не отменять его. Всего через несколько секунд тот же поиск показал проиндексированную статью — это уже пятый случай, когда такое происходит со мной.

Четыреста статей исключены из индекса

Ситуация заключалась в постоянных атаках на определенный веб-сайт, во время которых Google, казалось, был бессилен вмешаться и предотвратить неправомерное использование. В результате пользователь оказался в опасном положении.

Каждую неделю из результатов поиска удаляются многочисленные страницы. Нам необходимо ежедневно проверять Google Search Console на предмет того, были ли сняты какие-либо другие элементы, и если да, то восстанавливать их по мере необходимости.Как опытный вебмастер, я столкнулся с непредвиденной ситуацией: более 400 статей нашего сайта, которые все еще активно публикуются, таинственным образом исчезли из результатов поисковых систем. Расследование показало, что кто-то из нашей команды случайно подал эти живые страницы через инструмент публичного удаления, что привело к их исключению из индексации.

Google обещал разобраться с этим

Они спросили, есть ли способ блокировать атаки, и Дэнни Салливан из Google ответил:

Благодарим за внимание — на страницах где производятся изменения, обратите внимание что нет никаких ограничений или барьеров.

Устройство сконструировано так, чтобы исключить мертвые ссылки и предварительные просмотры устаревшего контента, поскольку они больше не ведут к активным веб-страницам. Давайте более глубоко рассмотрим этот вопрос для получения дополнительных сведений.

Как был использован инструмент от Google

Как специалист по цифровому маркетингу, я сначала сообщил о негативной SEO-атаке с использованием измененных ключевых слов, чтобы успешно запросить удаление устаревшего контента. Однако дальнейшее расследование показало, что в данном случае действительно была использована альтернативная тактика.

Инструмент Google для удаления устаревшего контента чувствителен к регистру, что означает, что при вводе URL с заглавной буквой, сканер будет искать только вариант с заглавной буквой. Если ваш сервер отвечает ошибкой 404 Not Found, Google удалит все версии URL с этим конкретным регистром.

Фонд свободы прессы утверждает, что инструмент нечувствителен к регистру, но это неточно, поскольку нечувствительность к регистру подразумевает, что регистр не имеет значения. Однако в данном случае различие между буквами в верхнем и нижнем регистре имеет значение, что подразумевает, что инструмент на самом деле чувствителен к регистру.

Кстати, затронутый пользователь, возможно, обошел проблему, преобразовав каждый запрос на URL-адреса с заглавными буквами в нижний регистр и обеспечив, чтобы весь сайт единообразно использовал URL-адреса в нижнем регистре.

Уязвимость, которой воспользовался хакер, заключается в следующем: хотя само приложение различает заглавные и строчные буквы, на этапе работы системы удаления от Google происходит игнорирование различий между регистрами букв. Это несоответствие привело к удалению нужного URL.

Наша статья… похоже исчезла из результатов поиска Google благодаря необычному методу, который не так широко обсуждается публично: упорному и организованному злоупотреблению функцией ‘Update Outdated Content’. Эта функция предназначена для использования сторонними пользователями без права владения сайтами, чтобы просить поисковые системы удалить веб-страницы с ошибкой 404 (не найдено) или пересмотреть результаты поиска для страниц со устаревшей или нерелевантной информацией. Ранее недобросовестный пользователь мог заставить исчезнуть легитимную статью, запросив удаление URL, который был похожим, но приводил к ошибке 404. Похоже, изменяя регистр в части slug URL можно было эксплуатировать нечувствительность Google к регистру в автоматической системе удаления контента.

Другие сайты, затронутые этой эксплойтом

Google признала Фонду свободы прессы, что эта уязвимость действительно затронула и другие веб-сайты.

В заявлении утверждается, что проблема затронула лишь небольшое количество сайтов, и те сайты, которые были неправильно задеты, уже восстановлены.

Google ответил по электронной почте, что эта ошибка была исправлена.

Смотрите также

2025-08-01 02:39

Reddit отдает приоритет поиску и отмечает пятикратный рост ответов на основе искусственного интеллекта

Reddit прилагает значительные усилия для улучшения своих поисковых возможностей, а его генеральный директор Стив Хаффман заявил о стремлении сделать Reddit основным источником информации для пользователей в интернете.

В недавнем отчете за второй квартал, направленном акционерам, Reddit сообщил, что свыше 70 миллионов человек каждую неделю используют функцию внутреннего поиска на платформе.

Функция ответов на вопросы в Reddit с искусственным интеллектом стабильно развивается и сейчас обслуживает примерно шесть миллионов пользователей каждую неделю, что представляет собой увеличение почти в пять раз по сравнению со вторым кварталом.

Поиск становится стратегическим приоритетом

reddit сместил фокус внимания на три основных направления: улучшение основного сервиса, увеличение релевантности глобального поиска и расширение горизонтов в международных рынках.

В рамках этого изменения компания сокращает работу над инициативами, связанными с пользовательской экономикой.

Хаффман заявил:

Как цифровой маркетолог, я бы сказал, что Reddit выделяется среди других платформ своим уникальным потенциалом стать ведущим поисковым направлением. Здесь у нас есть доступ к экстраординарному спектру дискуссий и идей, которые трудно найти где-либо еще.

Бизнес намерен углубить свою связь с ответами на Reddit в рамках своей поисковой функциональности, расширить эту функцию на более широкий круг местоположений и запустить рекламные кампании для стимулирования её использования по всему миру.

Ответы на Reddit набирают обороты

Reddit Answers, запущенный недавно, использует заархивированные беседы на платформе для предоставления уместных ответов на поисковые запросы.

Я горжусь тем, что являюсь частью платформы, которая может похвастаться впечатляющими 6 миллионами активных пользователей еженедельно. Доступ к платформе предоставляется в основных регионах, таких как США, Великобритания, Канада, Австралия и Индия.

Проводятся испытания по интеграции функций поиска с основным интерфейсом Reddit, чтобы обеспечить более плавный и понятный процесс поиска.

Почему это важно

Акцент Reddit на улучшение функциональности поиска может предоставить новые возможности для повышения видимости. В настоящее время многие из его публикаций появляются в верхней части результатов поиска Google, и теперь их внутренние инструменты поиска совершенствуются для предоставления прямых ответов.

Reddit также подчеркивает свою денежную ценность. Компания заявляет, что около 40% постов на платформе свидетельствуют о намерении купить товары или услуги, делая ее основным местом для тех, кто ищет информацию об этих продуктах.

Взгляд в будущее

В связи с растущей распространенностью контента, созданного искусственным интеллектом, Reddit возлагает надежды на продолжающуюся важность человеческих взглядов.

Компания прогнозирует прибыль за третий квартал в размере от 535 до 545 миллионов долларов США, одновременно работая над более плавной интеграцией службы вопросов и ответов Reddit при дальнейшем развитии поисковых функций.

Смотрите также

2025-08-01 01:38

Bing рекомендует последние теги модификации для индексации поискового индекса ИИ

Обновленные инструкции по sitemap сайта Microsoft’s Bing подчеркивают важность тега ‘lastmod‘ в их поисковой системе на базе искусственного интеллекта. Этот тег имеет ключевое значение для определения веб-страниц, требующих повторного сканирования.

На динамических веб-сайтах или сайтах с частыми обновлениями предоставление точных данных о последнем изменении (lastmod) является полезным для поддержания обнаруживаемости контента поисковыми системами, такими как Bing. Хотя инструменты реального времени, такие как IndexNow, могут ускорить обновления, корректные значения lastmod обеспечивают возможность поисковых систем более эффективно отслеживать и индексировать контент вашего сайта.

Bing отдает приоритет последней обновленной информации при повторном сканировании

Bing указывает, что поле ‘lastmod’ в вашей карте сайта имеет решающее значение для индексации на основе искусственного интеллекта. Эта информация помогает определить, требуется ли повторное сканирование страницы или ее можно пропустить.

Для обеспечения оптимальной производительности всегда представляйте даты и время в формате ISO 8601 при предоставлении данных (например, YYYY-MM-DDTHH:MM:SS+HH:MM). Такой уровень детализации позволяет Bing расставлять приоритеты в своей деятельности по сканированию веб-страниц в соответствии с реальными обновлениями контента.

Не устанавливайте время последней модификации (lastmod) как время генерации вашей карты сайта, если страница не была действительно обновлена.

Кроме того, Bing уточнил, что теги ‘changefreq’ и ‘priority’ теперь игнорируются и не влияют на процесс сканирования или ранжирования.

Советы по отправке и проверке

Bing рекомендует отправлять вашу карту сайта одним из двух способов:

  • Укажите это в вашем файле robots.txt
  • Отправьте его через Инструменты веб-мастера Bing

После отправки Bing немедленно получает карту сайта и перепроверяет её ежедневно.

Для того чтобы убедиться в корректной работе, вы можете проверить статус через историю подач данных, дату последнего прочтения и возможные ошибки обработки в инструменте Bing Вебмастер.

Совместите с IndexNow для лучшего охвата

Для увеличения вероятности своевременной индексации Bing советует комбинировать карты сайта с IndexNow.

Использование карты сайта предоставляет Bing общий обзор всего вашего веб-сайта, но IndexNow предлагает возможность мгновенных, специфичных для URL-адресов обновлений, что особенно полезно, если ваш контент часто меняется.

Команда Bing заявляет:

Как эксперт по SEO, я бы рекомендовал создать надежную структуру, интегрировав карты сайта для широкого охвата веб-сайта и используя IndexNow для быстрой отправки отдельных URL-адресов. Такой подход закладывает прочную основу для обеспечения актуальности вашего контента, его легкой обнаруживаемости и заметности в поисковых системах.

Сайты карт сайта в массовом масштабе

Если вы управляете большим веб-сайтом, ограничения емкости карты сайта Bing заслуживают вашего внимания:

  • До 50 000 URL в карте сайта
  • 50 000 карт сайта на файл индекса
  • 2,5 миллиарда URL в индексе
  • Несколько индексных файлов поддерживают индексацию до 2,5 триллионов URL-адресов

Протокол sitemap можно настроить, чтобы справиться с требованиями крупных eCom- или издательских сайтов внутри предприятия.

Фабрис Канель и Кришна Мадхаван из команды Microsoft AI подчеркнули, что полное использование этих ограничений помогает сохранить доступность информации при поиске через ИИ.

Почему это важно

По мере того, как поиск становится все более управляемым искусственным интеллектом, точные сигналы сканирования становятся более важными.

Активно полагаясь на карты сайта, особенно на поле «lastmod», Bing демонстрирует, что фундаментальные методы SEO остаются значимыми, даже по мере того, как искусственный интеллект преобразует способ отображения контента.

Как опытный вебмастер, я убедился, что способность Bing обрабатывать триллионы URL на крупных сайтах обеспечивает масштабируемость. Однако для небольших сайтов ключевым моментом является поддержание чистых, точных и регулярно обновляемых карт сайта. Такой подход повышает шансы на то, чтобы ваш контент был замечен поисковыми системами с искусственным интеллектом, максимально увеличивая его видимость.

Смотрите также

2025-07-31 20:39