Отчетность по PMax Channel получает опцию сегментации видео.

Hana Kobzova has spotted a new segmentation option within the Performance Max (PMax) Channel Reporting that allows advertisers to view data from ads with video as well as without video. This feature is similar to how Google has given the ability to segment ads with products and without since the summer of 2025 in the report.

Я заметил, что это происходит и с другими аккаунтами, поэтому, вероятно, это не новая функция, но она все равно действительно полезна. Многие рекламодатели, вероятно, не осознают, что реклама может работать с видео, даже если они не загрузили свои собственные, но Performance Max может автоматически создавать видео для них. Проверка того, насколько хорошо работают эти автоматически созданные видео, может помочь вам решить, стоит ли инвестировать в профессионально созданный видеоконтент.

Смотрите также

2026-03-16 18:44

Вы не масштабируете контент. Вы масштабируете разочарование.

В мире SEO часто попадаются на идее, что создание огромного количества контента повысит позиции в рейтинге. Каждые несколько лет появляется новый метод быстрого создания большого количества статей, и люди верят, что *на этот раз* это наконец-то сработает. Логика заключается в том, что если вы затопите Google достаточным количеством страниц, то простое количество перевесит качество, и вы увидите результаты просто из-за количества опубликованных вами страниц.

Эти методы постоянно терпят неудачу, и те, кто их продвигает, знают об этом. Их главная цель – не ваш успех, а просто получение оплаты.

У шаблона есть название. Оно называется «Не учиться».

Давайте пройдемся по хронологии, потому что, видимо, нам нужно повторить это снова.

2008-2011: Спин контента

Идея была проста: взять статью и использовать программное обеспечение для замены слов синонимами, быстро создавая то, что они утверждали, было 50 ‘уникальными’ единицами контента. Но это утверждение об ‘уникальности’ было вводящим в заблуждение. Полученные статьи часто были бессмысленными, похожими на хаотичную мешанину слов. Даже если бы программное обеспечение *могло* создавать отточенный текст, сама концепция была ошибочной. Проблема, которую спиннеры контента никогда не понимали – и многие до сих пор не понимают – заключается в том, что создать что-то *отличное* легко. Даже случайные нажатия клавиш создают оригинальный текст. Настоящая задача заключается не просто в создании чего-то уникального; речь идет о создании контента, который действительно *ценен*. Уникальный и ценный – это не одно и то же, и именно эта разница является причиной провала многих контент-стратегий.

Google изначально позволял этим сайтам с низкокачественным контентом процветать, потому что их системы ещё не обнаружили проблему. Но в феврале 2011 года Google выпустил обновление под названием Panda, которое значительно повлияло на результаты поиска – примерно на 12% из них. Сайты, известные как ‘content farms’, увидели, как трафик на их веб-сайтах исчез почти сразу. Я лично был свидетелем этого. Demand Media, яркий пример такого подхода ‘content farms’, сообщила об убытке в размере 6,4 миллиона долларов в следующем году.

Основная мысль урока была проста: нельзя массово производить качество. Сосредоточение на количестве в ущерб содержанию создает проблемы, которые в конечном итоге обходятся дороже, чем вы можете себе позволить в долгосрочной перспективе.

2015-2022: Программное SEO

Первоначальная идея изменилась. Вместо переписывания существующих статей, фокус сместился на создание многоразовых шаблонов и заполнение их структурированной информацией. Это привело к массовому производству страниц типа «Лучшие [X] в [City]», по сути, простому отображению результатов базы данных. Хотя некоторые из этих страниц были действительно полезными, предоставляя хорошую информацию, которую люди действительно хотели, большинство из них таковыми не были. Они часто были просто замаскированными дверными страницами – разработанными для ранжирования в результатах поиска, а не для предоставления реальной ценности пользователям. С годами Google стал намного лучше в выявлении и понижении рейтинга такого типа шаблонного контента.

Основная мысль урока заключалась в том, что рост работает только при наличии прочного фундамента. В противном случае, вы просто делаете себя более заметной целью.

2023-Настоящее время: AI-генерируемый контент в масштабе.

Снова то же самое – те же самые обещания, просто с новыми технологиями. Они утверждают, что могут создавать 500 статей каждый месяц, что звучит отлично. Но будут ли эти статьи стоить того, чтобы их читать? Предложат ли они что-нибудь новое или отличное от того, что уже доступно? И покажут ли они какие-либо реальные знания, опыт или оригинальное мышление?

Нет? Тогда вы не масштабируете контент. Вы масштабируете бесполезную трату бюджета сканирования.

Ошибки в том, как система распознавала шаблоны, были поразительными. Это было очень очевидно – многие из нас это видели, и мы были недовольны.

Как человек, который давно строит веб-сайты, я недавно увидел AI-инструмент, заявляющий, что он повысит вашу видимость для AI-систем, и это сразу показалось мне… знакомым. Они создали сотни страниц, нацеленных на такие запросы, как «best SEO agencies in [city].» Это, по сути, та же тактика, которую мы видели с programmatic SEO в 2017 году. Разница? Вместо того, чтобы люди писали контент, все это генерируется LLM. Они отполировали грамматику и теперь называют это ‘AEO’, но, честно говоря, основная стратегия совсем не изменилась.

Я видел этот шаблон раньше, и Лили Рэй недавно указала на идеальный пример. Это был сайт, создающий резюме, но они автоматически генерировали сотни страниц, нацеленных на ключевые слова, такие как ‘resume examples for [job title]’. Каждый заголовок страницы был структурирован *точно* одинаково, они все использовали почти идентичные шаблоны и неправильно использовали разметку schema для рейтингов. Честно говоря, было довольно очевидно, что контент был в основном сгенерирован ИИ. Лили подвели это идеально: они преследовали ранжирование некоторое время, но эта стратегия просто перестала работать.

Каждая презентация о развитии контента должна включать эту простую истину: то, что работает, в конечном итоге перестаёт работать. Это неизбежно. Обстоятельства меняются, и стратегии, которые когда-то преуспевали, в конечном итоге потерпят неудачу.

Почти комично, что инструмент, предназначенный для *улучшения* веб-сайтов, использует устаревшие и спаммерские тактики, такие как создание множества простых страниц только для того, чтобы быть замеченным – но, к сожалению, это именно то, чего можно ожидать от этой индустрии.

Качественная стена не двигается.

Распространенная ошибка, которую совершают создатели контента, заключается в том, что они не понимают, что Google не оценивает контент по своим собственным достоинствам. Вместо этого Google оценивает контент, сравнивая его со всей остальной информацией, доступной по той же теме.

Существует определённый стандарт, которому контент должен соответствовать, чтобы быть по-настоящему ценным. Простое создание большого количества контента не поможет, если он не предлагает чего-то уникального – таких как свежие идеи, личный опыт или специализированные знания – которые читатели не могут найти где-либо ещё. Независимо от того, сколько вы публикуете, если ему не хватает этой основной ценности, он не будет хорошо ранжироваться в результатах поиска.

Ситуация становится еще более проблематичной для тех, кто создает много AI-контента, надеясь занять высокие позиции в результатах поиска на основе AI. Простое создание большого объема контента не только не работает – оно фактически снижает их шансы. Недавние исследования показывают, что некачественный контент не просто игнорируется; он может активно вводить AI в заблуждение, ухудшая результаты поиска в целом. Эти сотни слабых статей не просто невидимы для поисковых систем – они отвлекают. И если у вас на сайте есть хороший контент, смешанный со всем этим шумом, вы фактически саботируете его видимость. Тот самый объем, который вы надеялись увеличить обнаружение, теперь зарывает ваши лучшие страницы.

Это не новаторское открытие. Это та же проблема, которая преследовала ранние инструменты автоматического создания контента в 2010 году, продолжалась в масштабном SEO-контенте в 2018 году и всё ещё существует сегодня с программами для написания текстов на основе ИИ. Хотя технология *создания* текста улучшилась, сам текст остаётся бессмысленным и лишённым содержания.

Google Вам говорил. Неоднократно

Google рассматривает создание большого количества контента исключительно для улучшения позиций в поисковой выдаче – не оказывая реальной помощи людям – как нарушение своих правил борьбы со спамом. В частности, они указывают на использование ИИ или подобных инструментов для массового производства некачественных страниц в качестве примера этого. Google очень чётко это заявляет – это не спрятано в мелком шрифте, это указано напрямую в их руководствах.

Начиная с июня 2025 года, Google начал накладывать штрафы на веб-сайты, публикующие большие объемы контента, сгенерированного ИИ, как способ манипулирования позициями в поисковой выдаче. Эти штрафы, доставляемые через уведомления Search Console на сайты в Великобритании, США и ЕС, ссылались на «агрессивные спам-техники» и приводили к полному исчезновению этих страниц из результатов поиска – они не просто понижались в рейтинге, они были удалены полностью.

Как SEO-специалист, я внимательно слежу за усилиями Google по борьбе со спамом, и обновление августа 2025 года стало серьезным сигналом об их решимости. С тех пор каждое основное обновление продолжало совершенствовать их подход, последовательно наказывая один и тот же тип сайтов: те, которые сосредоточены на производстве большого количества контента, не имеющего реальной ценности и не прошедшего надлежащей проверки или редактирования. Это ясный сигнал – качество и экспертность теперь важнее, чем когда-либо.

Каждый раз, когда это происходило, владельцы веб-сайтов, казалось, были шокированы, несмотря на то, что Google предупреждал их об этом в течение пятнадцати лет.

‘Но наш контент хорошо ранжируется’

Я вижу эту закономерность снова и снова, и это моя самая большая проблема. Люди думают: «Наш контент, сгенерированный ИИ, появляется в результатах поиска, значит, он должен быть хорошим». Но это часто именно та причина, по которой Google обновляет свои алгоритмы или принимает ручные меры против веб-сайта. Если ваш контент некачественный, но всё ещё ранжируется, это просто означает, что Google ещё не заметил его. Это не значит, что всё в порядке.

Google оценивает общее состояние вашего сайта, а не отдельные страницы. Несколько хорошо работающих страниц не могут скрыть проблемы всего сайта. Когда Google обнаруживает проблемы – либо через свои автоматизированные системы, либо посредством ручной проверки – он наказывает весь сайт, а не только отдельные страницы.

Только потому, что что-то сейчас успешно, не означает автоматически, что это хороший долгосрочный план. Контент Demand Media раньше хорошо ранжировался в результатах поиска, но это изменилось – доказывая, что временный успех – это не то же самое, что надежная стратегия.

Лилия попала в точку: хотя использование ИИ для создания большого количества контента *кажется* успешным на первый взгляд, это всегда приводит к падению трафика в дальнейшем. Мы слышим только о первоначальных победах, а не о том, что происходит потом — все празднуют начало, но никто не делится полной историей, когда что-то идет не так.

Экономика даже не имеет смысла.

Отложите риск в сторону на мгновение. Давайте поговорим о том, что вы на самом деле производите.

Мы производим 500 статей каждый месяц, используя ИИ. Но просто генерировать их недостаточно. Каждая статья нуждается в тщательной проверке, чтобы убедиться, что информация верна – ИИ иногда может придумывать вещи, а публикация ошибок может привести к серьезным проблемам. Мы также должны проверить, что каждая статья оригинальна и предлагает что-то новое, иначе она не выделится. Наконец, редактору необходимо убедиться, что каждая статья действительно соответствует потребностям наших читателей.

Попытки сэкономить время и деньги с помощью создания контента с использованием ИИ на самом деле могут обойтись вам дороже. Предполагаемые преимущества использования ИИ быстро исчезают, когда вы учитываете усилия, необходимые для обеспечения высокого качества контента и соответствия вашим стандартам.

Послушайте, как человек, который долгое время занимается созданием веб-сайтов, я просто не понимаю, когда компании выпускают тонны контента, не проверяя его сначала. Публикация материалов, которые не являются оригинальными, не были проверены и могут быть даже неверными – под именем вашего бренда? Честно говоря, я ошеломлен тем, как кто-то может одобрить такую стратегию. Это кажется рецептом катастрофы.

Та же ошибка, но лучшие инструменты.

Контент-спиннинг, программное SEO и создание большого количества контента, сгенерированного ИИ, имеют общий недостаток: они рассматривают создание контента как массовое производство, а не как обеспечение качества и ценности.

Производство преуспевает в создании больших количеств идентичных продуктов, и в этом его сила. Однако ценный контент рождается из уникальности, основанной на личном опыте и предлагающей свежий взгляд. Попытки массового производства контента, как на фабрике, неизбежно терпят неудачу, поскольку это противоречит этому основному принципу.

Вы не можете просто автоматизировать действительно уникальный и детальный контент или воспроизвести подлинный человеческий опыт. Опора на AI-подсказки для создания оригинальных идей редко работает, и более совершенные AI-модели это не исправят. Эти ограничения проистекают из того, что делает контент ценным и увлекательным – вещей, которые требуют реальной человеческой проницательности и креативности.

Те, кто сосредоточены исключительно на росте, измеряют не то, что нужно. Они думают, что создание большего количества контента автоматически приведет к большему числу посетителей, но так это не работает. Связь не проста – качество имеет решающее значение, и простое создание большого количества контента не компенсирует его отсутствие.

Единственный вопрос, который имеет значение

Прежде чем делиться каким-либо контентом – будь то написанное вами или созданное с помощью ИИ – всегда рассматривайте: какую уникальную ценность это предлагает читателю? Какую новую информацию или перспективу вы предоставляете?

Простое создание большего количества страниц без чёткого плана – это не контент-стратегия, а потенциальная проблема. Это как игнорирование прошлых ошибок и рекомендаций Google, и действия, как будто эти вещи не имеют значения. Вы настраиваете себя на проблемы, особенно учитывая обновления, такие как Panda, и то, что произошло с автоматически-сгенерированными контент-сайтами в 2022 году.

Можете убеждать себя столько, сколько захотите. Но вы обманете всех остальных лишь на время.

Стена все еще там. Она всегда была там. Инструменты постоянно меняются. Стена — нет.

Смотрите также

2026-03-16 16:42

3 CMS-платформы контролируют 73% рынка и формируют настройки SEO по умолчанию.

Крис Грин, проанализировавший 17 миллионов веб-сайтов и являющийся соавтором раздела SEO в Web Almanac, пришел к выводу, на который всем SEO-специалистам следует обратить внимание.

По словам Грина, данные указывают на то, что отдельные SEO-специалисты оказывают очень незначительное общее влияние на рейтинг веб-сайтов по сравнению со встроенными настройками систем управления контентом (CMS).

Он написал:

Если вы хотите оказать более широкое влияние, выходящее за рамки ваших индивидуальных клиентов, вам следует вносить свой вклад в такие платформы, как WordPress, Wix или Shopify.

На протяжении многих лет, Search Engine Journal отслеживает, какие системы управления контентом (CMS) наиболее популярны в интернете. Мы впервые начали уделять пристальное внимание, когда WordPress обеспечивал работу более чем 39,5% всех веб-сайтов. В то время WordPress быстро набирал пользователей, в то время как другие платформы боролись за гораздо меньшую долю рынка.

В мире SEO многое изменилось, и недавнее открытие Green’а заставило меня оглянуться на последнее десятилетие. Небольшое количество платформ теперь фактически диктует, как обрабатывается техническое SEO по всей сети. В этой статье я углубляюсь в то, как это произошло, делюсь выводами из глубокого анализа веб-технологий Web Almanac и объясняю, что все это значит для тех из нас, кто ежедневно работает в этой области.

Как три платформы взяли под контроль

В 2015 году WordPress обеспечивал работу почти четверти всех веб-сайтов (23,3%). Shopify и Wix были значительно меньшими игроками, занимая соответственно 0,3% и 0,1% рынка. Интересно, что большинство веб-сайтов – более 61% – вообще не были созданы с использованием какой-либо системы управления контентом (CMS).

В 2022 году WordPress обеспечивал работу почти половины (43,2%) всех веб-сайтов, использующих систему управления контентом (CMS), что давало ему 65,2% долю рынка. Однако рост замедлился, и к октябрю 2025 года использование WordPress снизилось до 43,3% от всех сайтов и 60,7% рынка CMS. Это представляет собой снижение его доли рынка CMS на 4,5% и первый продолжительный спад за более чем двадцать лет.

Хотя рост WordPress замедлился, три другие платформы испытали гораздо более быстрое расширение. Shopify увидел, как его доля рынка подскочила с 0.7% до 7.2% – огромное увеличение на 929%, достигнув пика в 32.6% роста к году, заканчивающемуся в октябре 2025 года. Squarespace также значительно вырос, увеличившись с 0.5% до 3.4%.

Joomla и Drupal когда-то были крупными игроками на рынке систем управления контентом (CMS), совместно контролируя около 14% этого рынка. Теперь их общая доля упала ниже 3%. Обе платформы пережили значительный спад – Joomla на 79% и Drupal на 80% – поскольку более новые, ранее неизвестные платформы превзошли их по популярности.

Меня поразила недавняя статистика: в 2015 году более 61% веб-сайтов не использовали отслеживаемую систему управления контентом (CMS), согласно W3Techs. Теперь это число упало примерно до 28,9%. Это означает, что WordPress обеспечивает работу большего количества веб-сайтов, чем тех, которые вообще не используют CMS. За последнее десятилетие интернет перешел от построения в основном на индивидуальных решениях к доминированию таких платформ, как WordPress, и немногие задумались о последствиях этого сдвига с точки зрения того, кто контролирует базовые технологии.

WordPress, Shopify и Wix вместе обеспечивают работу большинства веб-сайтов сегодня, составляя около 73% рынка систем управления контентом (CMS). Эти три платформы также имеют значительную финансовую поддержку.

В 2025 году Shopify принёс $11,56 миллиардов выручки, что на 30% больше, чем в предыдущем году. Wix также показал хорошие результаты, достигнув $1,99 миллиарда выручки и достигнув второго года прибыльной деятельности в соответствии с Общепринятыми принципами бухгалтерского учета (GAAP). До того, как была приобретена Permira за $7,2 миллиарда в октябре 2024 года, Squarespace превысила $1 миллиард выручки в свой последний год в качестве публичной компании. Вместе Shopify и Wix сгенерировали более $13,5 миллиардов выручки в 2025 году. Этот существенный доход поддерживает инженерные команды, которые влияют на поисковую оптимизацию (SEO) для огромного количества веб-сайтов.

Создание веб-сайтов стало намного проще. Десять лет назад вам обычно требовался разработчик и платформа, такая как WordPress или Drupal. Теперь инструменты на основе искусственного интеллекта могут создавать веб-сайты за считанные минуты, облегчая выход в онлайн для малого и среднего бизнеса.

Где на самом деле происходит SEO.

Грин описал это открытие как ‘возможно, самое удивительное’ из данных Web Almanac. Оказывается, что платформы, такие как конструкторы веб-сайтов и их расширения, в значительной степени определяют базовые технические SEO-настройки для значительной части интернета.

Недавний отчёт от Almanac показывает, что всё больше владельцев веб-сайтов используют канонические теги – теперь на 68% настольных страниц, по сравнению с 65% в 2024 году. Использование мета-тегов robots также увеличилось, достигнув 47% по сравнению с 45,5%. Этот рост, по-видимому, связан с тем, насколько широко используются системы управления контентом (CMS), а не с индивидуальными улучшениями веб-сайтов.

Yoast SEO используется почти на 16% всех веб-сайтов, просматриваемых на настольных компьютерах, и обеспечивает работу около 70% всех инструментов SEO, обнаруженных в Интернете. По умолчанию Yoast сообщает поисковым системам, что необходимо индексировать и переходить по ссылкам на странице. Интересно, что Web Almanac обнаружил, что 64% настольных страниц используют директиву ‘follow’, а 69% используют ‘index’. Технически, эти директивы не нужны, потому что поисковые системы автоматически индексируют и переходят по ссылкам, если иное не указано. Причина, по которой они так распространены, вероятно, заключается в том, что настройки Yoast по умолчанию применяются к миллионам веб-сайтов без индивидуальной настройки.

Растёт заметность всё более широкого использования стандарта llms.txt. Недавнее исследование Web Almanac показало, что 2,13% веб-сайтов теперь имеют валидный файл llms.txt, что свидетельствует о раннем принятии этого нового стандарта для AI ботов. Однако большая часть этих файлов – 39,6% – была автоматически создана плагином All in One SEO в качестве настройки по умолчанию, а ещё 3,6% – от Yoast. Это вызывает вопросы о том, намеренно ли эти веб-сайты поддерживают стандарт llms.txt, поскольку, как отмечает Web Almanac, это не всегда ясно.

Часто то, что кажется сознательным выбором использования функции, на самом деле просто плагин, работающий автоматически в фоновом режиме. Мы заметили это, когда вышла статья Грина, и это не выходит у меня из головы с тех пор, потому что это подчеркивает, насколько тонко сама платформа влияет на поведение пользователей. Зачастую кажется, что люди используют функцию, потому что она включена по умолчанию, возможно, просто путем установки флажка в меню настроек, а не принимая сознательное решение сделать это.

Структурированные данные работают схожим образом на всем веб-сайте. Главная страница тщательно настроена с помощью определенного кода (JSON-LD), но другие страницы используют шаблоны, которые автоматически добавляют структурированные данные. Иногда этот автоматический процесс случайно копирует информацию с главной страницы на страницы, где она не нужна.

Оптимизация изображений работает аналогичным образом. В то время как многие разработчики намеренно используют функцию ‘loading=’lazy» для повышения производительности, подавляющее большинство – около 68% – изображений по-прежнему полагаются на стандартные настройки браузера. Это означает, что большинство веб-сайтов не выбрали конкретный способ загрузки изображений; это решение приняла их веб-платформа.

Мы заметили значительное улучшение в валидности файлов robots.txt – теперь 85% веб-сайтов возвращают рабочий файл. Это во многом связано с тем, что системы управления контентом (CMS) теперь автоматически создают валидные файлы. Однако, большинство этих валидных файлов просто разрешают всем ботам доступ ко всему, что означает, что они не были настроены для управления тем, какие части сайта сканируются.

Wix демонстрирует, насколько SEO можно обрабатывать непосредственно в платформе веб-сайта. Например, когда вы добавляете название своей компании и местоположение на сайт Wix, он автоматически создает специальный код (называемый структурированными данными), который помогает поисковым системам понять ваш бизнес – и вам не нужны какие-либо технические знания SEO, чтобы это произошло. Это отличается от WordPress, где многие владельцы веб-сайтов вообще не добавляют этот код, если не получают конкретных инструкций или не устанавливают дополнительный плагин.

Неясно, сколько владельцев веб-сайтов меняют стандартные настройки на своих платформах. Однако, анализ более чем 21 000 веб-сайтов Squarespace показал, что средний SEO-балл составлял всего 40,5 из 100. Значительное количество – 66,4% – не имело описательного alt-текста для изображений, и почти половина (47%) использовали несколько тегов заголовка H1. Эти результаты показывают, что для многих веб-сайтов встроенные настройки платформы в значительной степени определяют, насколько хорошо они работают в результатах поиска.

Грин не уклонялся от ответа, написав:

Многие SEO-специалисты чувствуют, что Google должен быть им благодарен, потому что они помогают поддерживать работу интернета. Однако, я не думаю, что индустрия SEO в целом оказывает столько влияния, как считают некоторые люди.

Парадокс производительности

Основные показатели веб-страниц (Core Web Vitals) вносят усложнение: просто наличие хороших настроек по умолчанию не гарантирует автоматически более высокие позиции в поисковой выдаче.

Когда речь заходит о скорости мобильных веб-сайтов, сайты на WordPress проходят тест Google Core Web Vitals только в 45% случаев – это самый низкий показатель среди популярных платформ. Duda лидирует с показателем прохождения в 85%, а Wix идет следом с 75% – это значительное улучшение по сравнению с прошлым годом. Wix также преуспевает в поисковой оптимизации, достигая идеального результата в 100 баллов по Lighthouse SEO последние два года, чего не смог достичь ни один другой платформа. WordPress набирает впечатляющие 92 балла в этой области.

Недавний анализ более чем 59 000 самых эффективных веб-сайтов показал, что почти половина (49%) использует WordPress в качестве своей системы управления контентом (CMS), что делает его явным лидером. В то время как Wix и Shopify редко появляются среди самых популярных сайтов, Drupal удивительным образом занимает значительную долю – от 6% до 7% – веб-сайтов с самым высоким трафиком, несмотря на то, что составляет менее 1% от всех сайтов, работающих на CMS.

Наш анализ производительности веб-платформ за несколько лет показывает четкую тенденцию: высокопроизводительные сайты на WordPress с премиум-хостингом и тщательной оптимизацией процветают, в то время как типичные сайты на WordPress, использующие базовый общий хостинг и неоптимизированные плагины, снижают общую среднюю производительность платформы. Фактически, около половины всех сайтов на WordPress не проходят тесты Core Web Vitals просто потому, что их серверы слишком медленные.

Комплексные платформы обеспечивают более надежные результаты, поскольку они обрабатывают каждый аспект процесса создания веб-сайта. Исследования Web Almanac показали, что платформы с большим контролем над своими системами достигают наибольших улучшений. В отличие от WordPress, который допускает множество настроек и вариаций, платформы, такие как Wix и Duda, поддерживают более стабильный опыт.

Shopify добавляет ещё один уровень сложности. Даже несмотря на то, что он создан для интернет-магазинов – типа веб-сайта, который обычно требует высокой производительности – он достигает лишь 77.95% хорошего результата Core Web Vitals. Shopify также имеет присущие ограничения SEO, которые стандартные методы оптимизации не могут решить. К ним относятся требуемые структуры URL (например, /products/ или /collections/), проблемы с дублирующимся контентом, вызванные структурой коллекций, и ограничение в 100 000 перенаправлений, которое требует специальных знаний для эффективного управления.

Базовая технология обеспечивает основу и типичный уровень производительности, в то время как специализированные знания предлагают потенциал для исключительных результатов. Разница между этими двумя – это то, где консалтинговые услуги продолжают приносить пользу.

WordPress на перепутье

Данные от W3Techs показывают, что WordPress начал терять долю рынка в 2022 году, поскольку рынок стал перенасыщенным и конкуренция возросла. Это было еще больше усугублено в сентябре 2024 года разногласиями с WP Engine, что вызвало опасения по поводу того, как управляется WordPress.

В октябре 2024 года Automattic взяла под контроль плагин Advanced Custom Fields от WP Engine, что ознаменовало первый случай за 21-летнюю историю WordPress, когда плагин был насильственно передан под контроль другой компании. WP Engine подала в суд, и в декабре 2024 года суд временно заблокировал действия Automattic. Юридическая битва продолжается по состоянию на 2026 год.

В мае 2024 года Five for the Future сообщила, что Automattic профинансировала примерно половину всех отслеживаемых спонсорских вкладов. WordPress выпустила два значительных обновления в 2025 году, меньше, чем обычные три, но планы на 2026 год направлены на возвращение к типичным трем выпускам.

С декабря 2024 года по декабрь 2025 года WordPress показал небольшое снижение своей доли рынка (на 2.9%), в то время как Wix и Squarespace испытали значительный рост, увеличившись на 22.4% и 6.2% соответственно. Несмотря на эти изменения, не произошло массового перехода с WordPress, вероятно, потому что переключение платформ может быть сложным и дорогостоящим. Однако, эта ситуация выявила потенциальную проблему: большая часть веб-сайтов (43%) полагается на WordPress, и его будущее развитие может быть затронуто решениями одной компании – риск, который многие владельцы веб-сайтов не до конца учли.

Йост де Валк, основатель Yoast SEO, был отстранен от участия в качестве спикера на WordCamp Asia 2025 после того, как Мэтт Мулленвег, ключевая фигура в проекте WordPress, фактически запретил ему выступать. Это последовало за публичными призывами де Валка к изменениям в системе управления WordPress, направленными на ограничение единоличной власти принятия решений Мулленвегом. Двадцать давних основных разработчиков также подписали письмо с просьбой о более ориентированной на сообщество системе управления. Хотя Мулленвег позже частично уладил ситуацию, сняв запреты и снова принимая вклад, сообщество WordPress полностью не восстановило свое доверие.

Снижение на рынке на самом деле началось за два года до этого разногласия, поэтому оно не было причиной. Однако, ситуация подчеркнула риски концентрации столь большого контроля над основной инфраструктурой интернета в руках всего нескольких компаний. Любой, кто помогает клиентам выбирать платформы, должен обязательно учитывать это при составлении рекомендаций.

Что это значит для практиков

В наши дни базовое техническое SEO часто выполняется автоматически для веб-сайтов, созданных на платформах, таких как Wix. Когда платформа обновляет свои системы, эти изменения мгновенно влияют на миллионы веб-сайтов. Это гораздо больший масштаб, чем тот, которым обычно может управлять индивидуальный SEO-консультант.

Наши данные и наблюдения показывают, что наиболее важная и прибыльная работа ведется со специализированными проектами. Например, помощь торговцам в переходе на Shopify одновременно сложна и ценна – просто из-за таких ограничений, как лимит в 100 000 перенаправлений, и потому что сложные миграции веб-сайтов могут значительно повлиять на онлайн-трафик бизнеса.

Понимание настроек по умолчанию таких платформ, как Wix и Shopify, становится все более важным. Каждая платформа обрабатывает вещи по-разному с самого начала, и знание этих различий может быть действительно ценным, когда клиент решает между ними или переходит с одной на другую.

Недавний анализ более чем 21 000 веб-сайтов Squarespace показал средний SEO-рейтинг 40.5 из 100. Это показывает, что даже веб-сайты, созданные на удобных платформах, все еще нуждаются в оптимизации, чтобы показать наилучшие результаты в поисковой выдаче.

Отслеживание того, как AI-системы ‘видят’ ваш веб-сайт, становится все более важным. Данные из Web Almanac показывают значительный рост – 55% – упоминаний GPTBot в файлах robots.txt за последний год, а ClaudeBot почти удвоился. SEO-эксперт Aleyda Solis (Green) предупредила, что ограничение AI-ботов для экономии серверных затрат может серьезно навредить видимости вашего сайта в AI-поисковых системах и обучающих данных. В конечном итоге, владельцам веб-сайтов и SEO-специалистам предстоит найти правильный баланс между управлением серверной нагрузкой, обеспечением использования их контента для AI-обучения и поддержанием высоких позиций в AI-поиске – платформы не могут сделать это за них.

Заглядывая в будущее

Когда я начал отслеживать использование систем управления контентом (CMS) в Search Engine Journal, WordPress был явным лидером, и существовало множество более мелких CMS-решений. Теперь, спустя десятилетие, на три платформы приходится 73% рынка, и их технические решения сильно влияют на то, как большинство веб-сайтов отображаются в результатах поиска.

В то время как отдельные эксперты SEO остаются важными для оптимизации конкретных веб-сайтов, инженерные команды нескольких компаний теперь оказывают большее общее влияние на технический SEO, чем все консультанты SEO вместе взятые. Неясно, признала ли индустрия SEO в целом этот сдвиг в силе.

Как отметил веб-аналитик Энди Грин, если вы хотите действительно изменить ситуацию в сети, ваши усилия лучше всего сосредоточить на популярных платформах, таких как WordPress, Wix или Shopify.

Смотрите также

2026-03-16 16:13

Вкладка «Магазин» появляется в Google Shopping.

Google, похоже, добавил вкладку ‘Stores’ в свой опыт Google Shopping.

Это было замечено Сачином Пателем на X:

Является ли заголовок ‘Stores’ на вкладке ‘Shopping’ новым обновлением? @brodieseo @rustybrick @gaganghotra_

‘ Sachin Patel (@SachuPatel53124) 13 марта 2026 г.

Броди Кларк подтвердил, что он тоже не видел эту вкладку ранее.

Не припомню, чтобы сталкивался с этим раньше

‘ Brodie Clark (@brodieseo) March 13, 2026

Я смог воспроизвести это самостоятельно:

После нажатия на кнопку ‘More places’ внизу первого набора результатов, меня перенаправили в раздел ‘Places’ в главном меню поиска.

Не путайте раздел ‘Stores’ с фильтром ‘Nearby’. Фильтр ‘Nearby’ может быть вводящим в заблуждение, поскольку он часто отображает варианты, которые на самом деле находятся далеко от вашего местоположения – например, результаты с eBay. При использовании фильтра ‘Nearby’ в Google Shopping он автоматически добавляет ‘nearby’ к вашему поиску и показывает вам другой набор результатов.

Эти результаты отображают продукты по отдельности, и нажатие на продукт раскрывает различные способы его покупки, если такие опции существуют.

Форумные обсуждения в твоей голове.

Смотрите также

2026-03-16 15:44

Bing добавляет AI-дополнения для покупок в результаты поиска?

Начал ли Bing включать результаты покупок, сгенерированные ИИ? Это наблюдение исходит от Сачина Пателя, который искал подушки, согласно сообщениям.

Bing представил рекомендации на основе ИИ во вкладке Shopping. @rustybrick @glenngabe

‘ Sachin Patel (@SachuPatel53124) 13 марта 2026 г.

Похоже, Bing ищет в интернете лучшую версию продукта для вашей покупки.

Сачин отметил, что список продуктов был получен с трех разных веб-сайтов. Это похоже на то, как поисковые системы сейчас показывают результаты, работающие на базе ИИ, что, вероятно, объясняет, почему люди подозревают участие ИИ – он, кажется, повсюду в наши дни!

Как вебмастер, я заметил, что Bing использует то, что они называют ‘отобранной подборкой’. По сути, это список результатов, которые они считают лучшими, выбранными экспертами. Они выделяют то, что, по их мнению, является наиболее надёжными и полезными вариантами для пользователей.

Я не уверен, был ли этот контент создан ИИ, но возможно, он был просто скопирован с веб-сайтов, где рекомендовались эти продукты.

Разве я что-то не вижу?

Я не смог воспроизвести результат, поэтому, похоже, эта функция покупок в Bing может быть новым тестом – я не часто пользуюсь Bing Shopping, чтобы быть уверенным.

Форум обсуждений там, где продаются подушки.

Смотрите также

2026-03-16 15:44