AI Search Едва Ссылается на Синдицированный Контент Новостей или Пресс-Релизов

Недавний анализ BuzzStream, охвативший 4 миллиона упоминаний ИИ, показал, что пресс-релизы, распространяемые через обычные каналы, редко включаются в ответы, генерируемые искусственным интеллектом.

Background

Сервисы распространения пресс-релизов рекламируют видимость ИИ как преимущество.

Несколько сервисов распространения пресс-релизов сейчас помогают клиентам улучшить то, как их релизы отображаются в результатах поиска на основе искусственного интеллекта. ACCESS Newswire предоставляет контрольный список для AI-видимости, eReleases предлагает руководство по использованию релизов для AI-поиска, а Business Wire опубликовал информацию об оптимизации релизов для обнаружения поисковыми системами.

Данные BuzzStream предлагают другую точку зрения.

Что они нашли

Источники новостей составили 14% от всех ссылок, найденных в данных. Однако статьи, которые были распространены или опубликованы из других источников, цитировались гораздо реже.

Новостные статьи, распространяемые через сервисы, такие как Yahoo и MSN, составили всего 0.32% от всех упоминаний в новостях и лишь 0.04% от общего объема проанализированных данных.

Источники новостей, такие как PRNewswire, составляли очень небольшую часть общих данных – всего 0.21%. Хотя эти источники чаще всего появлялись в запросах, направленных на исследование или получение информации, они все же составляли только 0.37% этих конкретных запросов.

Новостные статьи, распространяемые в таких сетях, как MSN и Yahoo, составляли 6,2% от всех цитируемых новостных источников и всего 0,9% от всего объема данных, который мы проанализировали.

BuzzStream использовал свой инструмент ListIQ для поиска контента, который появлялся на нескольких веб-сайтах, проверяя имена авторов по публикациям, в которых они появлялись. Они также вручную просматривали случаи, когда автор и публикация не совпадали. Однако BuzzStream признает, что это не идеально, поскольку некоторые веб-сайты распространяют пресс-релизы, не указывая четко, что они взяты из другого источника.

Что показывают данные о том, что работает.

Наиболее интересная находка в отчете заключается в том, что цитируют действительно.

Большая часть новостного контента, указанного в наших данных – около 81% – представляла собой оригинальные редакционные материалы. Остальные цитаты поступили из партнерских и обзорных статей. Эта закономерность оставалась неизменной, независимо от типа использованного запроса, хотя партнерский контент был наиболее заметен – достигая 39% – когда запросы касались оценок.

Отчёт разделил запросы на три типа. Вопросы, запрашивающие мнения, такие как «Is Sony better than Bose?», привели к наибольшему количеству упоминаний в новостях, составляя 18% от всех цитат. Вопросы о узнаваемости бренда, такие как «What is Chase known for?», привели к наименьшему количеству упоминаний, всего 7%. Вопросы, запрашивающие фактическую информацию, оказались где-то посередине.

Оценочные цитаты часто ссылались на прямые сравнения и разбивку стоимости, опубликованные новостными источниками, такими как Reuters, CNBC и CNET.

Исключение из новостной редакции ChatGPT

Ключевым открытием стало то, что почти 18% источников, которые ChatGPT использовал в нашем анализе, поступали из собственных пресс-релизов компании и новостных статей, опубликованных на её веб-сайтах.

На AI-платформах Google это число упало примерно до 3%.

BuzzStream обнаружил, что ChatGPT часто полагается на информацию непосредственно с веб-сайтов компаний. Например, когда его спросили о работе Iberdrola с возобновляемыми источниками энергии, ChatGPT поделился контентом из собственных пресс-релизов Iberdrola. Аналогично, когда его спросили о продуктах Target, он сослался на пресс-релиз с веб-сайта Target, датированный 2015 годом.

BuzzStream отметил, что большинство прошлых тенденций были последовательны на разных платформах, но контент о новостных редакциях, использующих ChatGPT, был заметным исключением.

Почему это важно

Наши выводы противоречат утверждению, сделанному многими сервисами распространения пресс-релизов. Эти платформы все чаще рекламируют пресс-релизы как способ повысить видимость компании для систем искусственного интеллекта.

Исследования BuzzStream показывают, что пресс-релизы, распространяемые через информационные агентства – те, которые появляются на сайтах, таких как Yahoo Finance или MSN – обычно не являются версиями, которые подбирают AI-системы. Вместо этого, AI обычно предпочитает оригинальные новостные статьи и контент, публикуемый непосредственно самими брендами.

Это соответствует тенденциям, которые мы наблюдаем. Январский отчет от BuzzStream показал, что 79% ведущих новостных сайтов блокируют как минимум один тип AI-бота, используемого для обучения, и 71% блокируют ботов, собирающих информацию. Исследование Hostinger, охватившее 66 миллиардов запросов ботов, показало, что боты для обучения AI все чаще блокируются, в то время как боты поисковых систем получают все больше доступа.

Даже несмотря на то, что AI может находить контент, которым поделились из других источников, он не часто получает признание, когда используется.

По словам Робби Стейна из Google, чем больше веб-сайт обсуждается на других сайтах, тем выше его шансы быть рекомендованным ИИ Google. Он объяснил, что ИИ учится аналогично тому, как человек изучал бы тему – это означает, что подлинные статьи и освещение более ценны, чем просто распространение пресс-релизов.

Адам Ример выделил ключевое различие между цифровым PR – который направлен на получение упоминаний бренда в СМИ – и линкбилдингом, который ставит в приоритет получение ссылок. Недавние данные от BuzzStream указывают на то, что это различие также применимо к тому, как системы искусственного интеллекта цитируют источники.

Честно говоря, BuzzStream продает программное обеспечение для налаживания контактов и цифрового PR, поэтому неудивительно, что их исследование показывает, что заслуженное освещение в СМИ эффективнее платного распространения – это выгодно для их бизнеса. Они работали с Citation Labs, используя инструмент XOFU от Citation Labs для сбора данных.

Заглядывая в будущее

Это первая часть серии отчетов от BuzzStream. Важно помнить, что этот анализ рассматривает только данные за одну неделю и фокусируется на крупных брендах. Более мелкие бренды, которые не получили широкого освещения в прессе, могут столкнуться с разными результатами.

Компании, использующие digital PR, должны обращать внимание на то, какие каналы распространения работают лучше всего для их отрасли. Исследования показывают, что выбранные вами каналы могут повлиять на то, где упоминается ваш бренд в сети.

Смотрите также

2026-03-16 20:40

Вы не масштабируете контент. Вы масштабируете разочарование.

В мире SEO часто попадаются на идее, что создание огромного количества контента повысит позиции в рейтинге. Каждые несколько лет появляется новый метод быстрого создания большого количества статей, и люди верят, что *на этот раз* это наконец-то сработает. Логика заключается в том, что если вы затопите Google достаточным количеством страниц, то простое количество перевесит качество, и вы увидите результаты просто из-за количества опубликованных вами страниц.

Эти методы постоянно терпят неудачу, и те, кто их продвигает, знают об этом. Их главная цель – не ваш успех, а просто получение оплаты.

У шаблона есть название. Оно называется «Не учиться».

Давайте пройдемся по хронологии, потому что, видимо, нам нужно повторить это снова.

2008-2011: Спин контента

Идея была проста: взять статью и использовать программное обеспечение для замены слов синонимами, быстро создавая то, что они утверждали, было 50 ‘уникальными’ единицами контента. Но это утверждение об ‘уникальности’ было вводящим в заблуждение. Полученные статьи часто были бессмысленными, похожими на хаотичную мешанину слов. Даже если бы программное обеспечение *могло* создавать отточенный текст, сама концепция была ошибочной. Проблема, которую спиннеры контента никогда не понимали – и многие до сих пор не понимают – заключается в том, что создать что-то *отличное* легко. Даже случайные нажатия клавиш создают оригинальный текст. Настоящая задача заключается не просто в создании чего-то уникального; речь идет о создании контента, который действительно *ценен*. Уникальный и ценный – это не одно и то же, и именно эта разница является причиной провала многих контент-стратегий.

Google изначально позволял этим сайтам с низкокачественным контентом процветать, потому что их системы ещё не обнаружили проблему. Но в феврале 2011 года Google выпустил обновление под названием Panda, которое значительно повлияло на результаты поиска – примерно на 12% из них. Сайты, известные как ‘content farms’, увидели, как трафик на их веб-сайтах исчез почти сразу. Я лично был свидетелем этого. Demand Media, яркий пример такого подхода ‘content farms’, сообщила об убытке в размере 6,4 миллиона долларов в следующем году.

Основная мысль урока была проста: нельзя массово производить качество. Сосредоточение на количестве в ущерб содержанию создает проблемы, которые в конечном итоге обходятся дороже, чем вы можете себе позволить в долгосрочной перспективе.

2015-2022: Программное SEO

Первоначальная идея изменилась. Вместо переписывания существующих статей, фокус сместился на создание многоразовых шаблонов и заполнение их структурированной информацией. Это привело к массовому производству страниц типа «Лучшие [X] в [City]», по сути, простому отображению результатов базы данных. Хотя некоторые из этих страниц были действительно полезными, предоставляя хорошую информацию, которую люди действительно хотели, большинство из них таковыми не были. Они часто были просто замаскированными дверными страницами – разработанными для ранжирования в результатах поиска, а не для предоставления реальной ценности пользователям. С годами Google стал намного лучше в выявлении и понижении рейтинга такого типа шаблонного контента.

Основная мысль урока заключалась в том, что рост работает только при наличии прочного фундамента. В противном случае, вы просто делаете себя более заметной целью.

2023-Настоящее время: AI-генерируемый контент в масштабе.

Снова то же самое – те же самые обещания, просто с новыми технологиями. Они утверждают, что могут создавать 500 статей каждый месяц, что звучит отлично. Но будут ли эти статьи стоить того, чтобы их читать? Предложат ли они что-нибудь новое или отличное от того, что уже доступно? И покажут ли они какие-либо реальные знания, опыт или оригинальное мышление?

Нет? Тогда вы не масштабируете контент. Вы масштабируете бесполезную трату бюджета сканирования.

Ошибки в том, как система распознавала шаблоны, были поразительными. Это было очень очевидно – многие из нас это видели, и мы были недовольны.

Как человек, который давно строит веб-сайты, я недавно увидел AI-инструмент, заявляющий, что он повысит вашу видимость для AI-систем, и это сразу показалось мне… знакомым. Они создали сотни страниц, нацеленных на такие запросы, как «best SEO agencies in [city].» Это, по сути, та же тактика, которую мы видели с programmatic SEO в 2017 году. Разница? Вместо того, чтобы люди писали контент, все это генерируется LLM. Они отполировали грамматику и теперь называют это ‘AEO’, но, честно говоря, основная стратегия совсем не изменилась.

Я видел этот шаблон раньше, и Лили Рэй недавно указала на идеальный пример. Это был сайт, создающий резюме, но они автоматически генерировали сотни страниц, нацеленных на ключевые слова, такие как ‘resume examples for [job title]’. Каждый заголовок страницы был структурирован *точно* одинаково, они все использовали почти идентичные шаблоны и неправильно использовали разметку schema для рейтингов. Честно говоря, было довольно очевидно, что контент был в основном сгенерирован ИИ. Лили подвели это идеально: они преследовали ранжирование некоторое время, но эта стратегия просто перестала работать.

Каждая презентация о развитии контента должна включать эту простую истину: то, что работает, в конечном итоге перестаёт работать. Это неизбежно. Обстоятельства меняются, и стратегии, которые когда-то преуспевали, в конечном итоге потерпят неудачу.

Почти комично, что инструмент, предназначенный для *улучшения* веб-сайтов, использует устаревшие и спаммерские тактики, такие как создание множества простых страниц только для того, чтобы быть замеченным – но, к сожалению, это именно то, чего можно ожидать от этой индустрии.

Качественная стена не двигается.

Распространенная ошибка, которую совершают создатели контента, заключается в том, что они не понимают, что Google не оценивает контент по своим собственным достоинствам. Вместо этого Google оценивает контент, сравнивая его со всей остальной информацией, доступной по той же теме.

Существует определённый стандарт, которому контент должен соответствовать, чтобы быть по-настоящему ценным. Простое создание большого количества контента не поможет, если он не предлагает чего-то уникального – таких как свежие идеи, личный опыт или специализированные знания – которые читатели не могут найти где-либо ещё. Независимо от того, сколько вы публикуете, если ему не хватает этой основной ценности, он не будет хорошо ранжироваться в результатах поиска.

Ситуация становится еще более проблематичной для тех, кто создает много AI-контента, надеясь занять высокие позиции в результатах поиска на основе AI. Простое создание большого объема контента не только не работает – оно фактически снижает их шансы. Недавние исследования показывают, что некачественный контент не просто игнорируется; он может активно вводить AI в заблуждение, ухудшая результаты поиска в целом. Эти сотни слабых статей не просто невидимы для поисковых систем – они отвлекают. И если у вас на сайте есть хороший контент, смешанный со всем этим шумом, вы фактически саботируете его видимость. Тот самый объем, который вы надеялись увеличить обнаружение, теперь зарывает ваши лучшие страницы.

Это не новаторское открытие. Это та же проблема, которая преследовала ранние инструменты автоматического создания контента в 2010 году, продолжалась в масштабном SEO-контенте в 2018 году и всё ещё существует сегодня с программами для написания текстов на основе ИИ. Хотя технология *создания* текста улучшилась, сам текст остаётся бессмысленным и лишённым содержания.

Google Вам говорил. Неоднократно

Google рассматривает создание большого количества контента исключительно для улучшения позиций в поисковой выдаче – не оказывая реальной помощи людям – как нарушение своих правил борьбы со спамом. В частности, они указывают на использование ИИ или подобных инструментов для массового производства некачественных страниц в качестве примера этого. Google очень чётко это заявляет – это не спрятано в мелком шрифте, это указано напрямую в их руководствах.

Начиная с июня 2025 года, Google начал накладывать штрафы на веб-сайты, публикующие большие объемы контента, сгенерированного ИИ, как способ манипулирования позициями в поисковой выдаче. Эти штрафы, доставляемые через уведомления Search Console на сайты в Великобритании, США и ЕС, ссылались на «агрессивные спам-техники» и приводили к полному исчезновению этих страниц из результатов поиска – они не просто понижались в рейтинге, они были удалены полностью.

Как SEO-специалист, я внимательно слежу за усилиями Google по борьбе со спамом, и обновление августа 2025 года стало серьезным сигналом об их решимости. С тех пор каждое основное обновление продолжало совершенствовать их подход, последовательно наказывая один и тот же тип сайтов: те, которые сосредоточены на производстве большого количества контента, не имеющего реальной ценности и не прошедшего надлежащей проверки или редактирования. Это ясный сигнал – качество и экспертность теперь важнее, чем когда-либо.

Каждый раз, когда это происходило, владельцы веб-сайтов, казалось, были шокированы, несмотря на то, что Google предупреждал их об этом в течение пятнадцати лет.

‘Но наш контент хорошо ранжируется’

Я вижу эту закономерность снова и снова, и это моя самая большая проблема. Люди думают: «Наш контент, сгенерированный ИИ, появляется в результатах поиска, значит, он должен быть хорошим». Но это часто именно та причина, по которой Google обновляет свои алгоритмы или принимает ручные меры против веб-сайта. Если ваш контент некачественный, но всё ещё ранжируется, это просто означает, что Google ещё не заметил его. Это не значит, что всё в порядке.

Google оценивает общее состояние вашего сайта, а не отдельные страницы. Несколько хорошо работающих страниц не могут скрыть проблемы всего сайта. Когда Google обнаруживает проблемы – либо через свои автоматизированные системы, либо посредством ручной проверки – он наказывает весь сайт, а не только отдельные страницы.

Только потому, что что-то сейчас успешно, не означает автоматически, что это хороший долгосрочный план. Контент Demand Media раньше хорошо ранжировался в результатах поиска, но это изменилось – доказывая, что временный успех – это не то же самое, что надежная стратегия.

Лилия попала в точку: хотя использование ИИ для создания большого количества контента *кажется* успешным на первый взгляд, это всегда приводит к падению трафика в дальнейшем. Мы слышим только о первоначальных победах, а не о том, что происходит потом — все празднуют начало, но никто не делится полной историей, когда что-то идет не так.

Экономика даже не имеет смысла.

Отложите риск в сторону на мгновение. Давайте поговорим о том, что вы на самом деле производите.

Мы производим 500 статей каждый месяц, используя ИИ. Но просто генерировать их недостаточно. Каждая статья нуждается в тщательной проверке, чтобы убедиться, что информация верна – ИИ иногда может придумывать вещи, а публикация ошибок может привести к серьезным проблемам. Мы также должны проверить, что каждая статья оригинальна и предлагает что-то новое, иначе она не выделится. Наконец, редактору необходимо убедиться, что каждая статья действительно соответствует потребностям наших читателей.

Попытки сэкономить время и деньги с помощью создания контента с использованием ИИ на самом деле могут обойтись вам дороже. Предполагаемые преимущества использования ИИ быстро исчезают, когда вы учитываете усилия, необходимые для обеспечения высокого качества контента и соответствия вашим стандартам.

Послушайте, как человек, который долгое время занимается созданием веб-сайтов, я просто не понимаю, когда компании выпускают тонны контента, не проверяя его сначала. Публикация материалов, которые не являются оригинальными, не были проверены и могут быть даже неверными – под именем вашего бренда? Честно говоря, я ошеломлен тем, как кто-то может одобрить такую стратегию. Это кажется рецептом катастрофы.

Та же ошибка, но лучшие инструменты.

Контент-спиннинг, программное SEO и создание большого количества контента, сгенерированного ИИ, имеют общий недостаток: они рассматривают создание контента как массовое производство, а не как обеспечение качества и ценности.

Производство преуспевает в создании больших количеств идентичных продуктов, и в этом его сила. Однако ценный контент рождается из уникальности, основанной на личном опыте и предлагающей свежий взгляд. Попытки массового производства контента, как на фабрике, неизбежно терпят неудачу, поскольку это противоречит этому основному принципу.

Вы не можете просто автоматизировать действительно уникальный и детальный контент или воспроизвести подлинный человеческий опыт. Опора на AI-подсказки для создания оригинальных идей редко работает, и более совершенные AI-модели это не исправят. Эти ограничения проистекают из того, что делает контент ценным и увлекательным – вещей, которые требуют реальной человеческой проницательности и креативности.

Те, кто сосредоточены исключительно на росте, измеряют не то, что нужно. Они думают, что создание большего количества контента автоматически приведет к большему числу посетителей, но так это не работает. Связь не проста – качество имеет решающее значение, и простое создание большого количества контента не компенсирует его отсутствие.

Единственный вопрос, который имеет значение

Прежде чем делиться каким-либо контентом – будь то написанное вами или созданное с помощью ИИ – всегда рассматривайте: какую уникальную ценность это предлагает читателю? Какую новую информацию или перспективу вы предоставляете?

Простое создание большего количества страниц без чёткого плана – это не контент-стратегия, а потенциальная проблема. Это как игнорирование прошлых ошибок и рекомендаций Google, и действия, как будто эти вещи не имеют значения. Вы настраиваете себя на проблемы, особенно учитывая обновления, такие как Panda, и то, что произошло с автоматически-сгенерированными контент-сайтами в 2022 году.

Можете убеждать себя столько, сколько захотите. Но вы обманете всех остальных лишь на время.

Стена все еще там. Она всегда была там. Инструменты постоянно меняются. Стена — нет.

Смотрите также

2026-03-16 16:42

3 CMS-платформы контролируют 73% рынка и формируют настройки SEO по умолчанию.

Крис Грин, проанализировавший 17 миллионов веб-сайтов и являющийся соавтором раздела SEO в Web Almanac, пришел к выводу, на который всем SEO-специалистам следует обратить внимание.

По словам Грина, данные указывают на то, что отдельные SEO-специалисты оказывают очень незначительное общее влияние на рейтинг веб-сайтов по сравнению со встроенными настройками систем управления контентом (CMS).

Он написал:

Если вы хотите оказать более широкое влияние, выходящее за рамки ваших индивидуальных клиентов, вам следует вносить свой вклад в такие платформы, как WordPress, Wix или Shopify.

На протяжении многих лет, Search Engine Journal отслеживает, какие системы управления контентом (CMS) наиболее популярны в интернете. Мы впервые начали уделять пристальное внимание, когда WordPress обеспечивал работу более чем 39,5% всех веб-сайтов. В то время WordPress быстро набирал пользователей, в то время как другие платформы боролись за гораздо меньшую долю рынка.

В мире SEO многое изменилось, и недавнее открытие Green’а заставило меня оглянуться на последнее десятилетие. Небольшое количество платформ теперь фактически диктует, как обрабатывается техническое SEO по всей сети. В этой статье я углубляюсь в то, как это произошло, делюсь выводами из глубокого анализа веб-технологий Web Almanac и объясняю, что все это значит для тех из нас, кто ежедневно работает в этой области.

Как три платформы взяли под контроль

В 2015 году WordPress обеспечивал работу почти четверти всех веб-сайтов (23,3%). Shopify и Wix были значительно меньшими игроками, занимая соответственно 0,3% и 0,1% рынка. Интересно, что большинство веб-сайтов – более 61% – вообще не были созданы с использованием какой-либо системы управления контентом (CMS).

В 2022 году WordPress обеспечивал работу почти половины (43,2%) всех веб-сайтов, использующих систему управления контентом (CMS), что давало ему 65,2% долю рынка. Однако рост замедлился, и к октябрю 2025 года использование WordPress снизилось до 43,3% от всех сайтов и 60,7% рынка CMS. Это представляет собой снижение его доли рынка CMS на 4,5% и первый продолжительный спад за более чем двадцать лет.

Хотя рост WordPress замедлился, три другие платформы испытали гораздо более быстрое расширение. Shopify увидел, как его доля рынка подскочила с 0.7% до 7.2% – огромное увеличение на 929%, достигнув пика в 32.6% роста к году, заканчивающемуся в октябре 2025 года. Squarespace также значительно вырос, увеличившись с 0.5% до 3.4%.

Joomla и Drupal когда-то были крупными игроками на рынке систем управления контентом (CMS), совместно контролируя около 14% этого рынка. Теперь их общая доля упала ниже 3%. Обе платформы пережили значительный спад – Joomla на 79% и Drupal на 80% – поскольку более новые, ранее неизвестные платформы превзошли их по популярности.

Меня поразила недавняя статистика: в 2015 году более 61% веб-сайтов не использовали отслеживаемую систему управления контентом (CMS), согласно W3Techs. Теперь это число упало примерно до 28,9%. Это означает, что WordPress обеспечивает работу большего количества веб-сайтов, чем тех, которые вообще не используют CMS. За последнее десятилетие интернет перешел от построения в основном на индивидуальных решениях к доминированию таких платформ, как WordPress, и немногие задумались о последствиях этого сдвига с точки зрения того, кто контролирует базовые технологии.

WordPress, Shopify и Wix вместе обеспечивают работу большинства веб-сайтов сегодня, составляя около 73% рынка систем управления контентом (CMS). Эти три платформы также имеют значительную финансовую поддержку.

В 2025 году Shopify принёс $11,56 миллиардов выручки, что на 30% больше, чем в предыдущем году. Wix также показал хорошие результаты, достигнув $1,99 миллиарда выручки и достигнув второго года прибыльной деятельности в соответствии с Общепринятыми принципами бухгалтерского учета (GAAP). До того, как была приобретена Permira за $7,2 миллиарда в октябре 2024 года, Squarespace превысила $1 миллиард выручки в свой последний год в качестве публичной компании. Вместе Shopify и Wix сгенерировали более $13,5 миллиардов выручки в 2025 году. Этот существенный доход поддерживает инженерные команды, которые влияют на поисковую оптимизацию (SEO) для огромного количества веб-сайтов.

Создание веб-сайтов стало намного проще. Десять лет назад вам обычно требовался разработчик и платформа, такая как WordPress или Drupal. Теперь инструменты на основе искусственного интеллекта могут создавать веб-сайты за считанные минуты, облегчая выход в онлайн для малого и среднего бизнеса.

Где на самом деле происходит SEO.

Грин описал это открытие как ‘возможно, самое удивительное’ из данных Web Almanac. Оказывается, что платформы, такие как конструкторы веб-сайтов и их расширения, в значительной степени определяют базовые технические SEO-настройки для значительной части интернета.

Недавний отчёт от Almanac показывает, что всё больше владельцев веб-сайтов используют канонические теги – теперь на 68% настольных страниц, по сравнению с 65% в 2024 году. Использование мета-тегов robots также увеличилось, достигнув 47% по сравнению с 45,5%. Этот рост, по-видимому, связан с тем, насколько широко используются системы управления контентом (CMS), а не с индивидуальными улучшениями веб-сайтов.

Yoast SEO используется почти на 16% всех веб-сайтов, просматриваемых на настольных компьютерах, и обеспечивает работу около 70% всех инструментов SEO, обнаруженных в Интернете. По умолчанию Yoast сообщает поисковым системам, что необходимо индексировать и переходить по ссылкам на странице. Интересно, что Web Almanac обнаружил, что 64% настольных страниц используют директиву ‘follow’, а 69% используют ‘index’. Технически, эти директивы не нужны, потому что поисковые системы автоматически индексируют и переходят по ссылкам, если иное не указано. Причина, по которой они так распространены, вероятно, заключается в том, что настройки Yoast по умолчанию применяются к миллионам веб-сайтов без индивидуальной настройки.

Растёт заметность всё более широкого использования стандарта llms.txt. Недавнее исследование Web Almanac показало, что 2,13% веб-сайтов теперь имеют валидный файл llms.txt, что свидетельствует о раннем принятии этого нового стандарта для AI ботов. Однако большая часть этих файлов – 39,6% – была автоматически создана плагином All in One SEO в качестве настройки по умолчанию, а ещё 3,6% – от Yoast. Это вызывает вопросы о том, намеренно ли эти веб-сайты поддерживают стандарт llms.txt, поскольку, как отмечает Web Almanac, это не всегда ясно.

Часто то, что кажется сознательным выбором использования функции, на самом деле просто плагин, работающий автоматически в фоновом режиме. Мы заметили это, когда вышла статья Грина, и это не выходит у меня из головы с тех пор, потому что это подчеркивает, насколько тонко сама платформа влияет на поведение пользователей. Зачастую кажется, что люди используют функцию, потому что она включена по умолчанию, возможно, просто путем установки флажка в меню настроек, а не принимая сознательное решение сделать это.

Структурированные данные работают схожим образом на всем веб-сайте. Главная страница тщательно настроена с помощью определенного кода (JSON-LD), но другие страницы используют шаблоны, которые автоматически добавляют структурированные данные. Иногда этот автоматический процесс случайно копирует информацию с главной страницы на страницы, где она не нужна.

Оптимизация изображений работает аналогичным образом. В то время как многие разработчики намеренно используют функцию ‘loading=’lazy» для повышения производительности, подавляющее большинство – около 68% – изображений по-прежнему полагаются на стандартные настройки браузера. Это означает, что большинство веб-сайтов не выбрали конкретный способ загрузки изображений; это решение приняла их веб-платформа.

Мы заметили значительное улучшение в валидности файлов robots.txt – теперь 85% веб-сайтов возвращают рабочий файл. Это во многом связано с тем, что системы управления контентом (CMS) теперь автоматически создают валидные файлы. Однако, большинство этих валидных файлов просто разрешают всем ботам доступ ко всему, что означает, что они не были настроены для управления тем, какие части сайта сканируются.

Wix демонстрирует, насколько SEO можно обрабатывать непосредственно в платформе веб-сайта. Например, когда вы добавляете название своей компании и местоположение на сайт Wix, он автоматически создает специальный код (называемый структурированными данными), который помогает поисковым системам понять ваш бизнес – и вам не нужны какие-либо технические знания SEO, чтобы это произошло. Это отличается от WordPress, где многие владельцы веб-сайтов вообще не добавляют этот код, если не получают конкретных инструкций или не устанавливают дополнительный плагин.

Неясно, сколько владельцев веб-сайтов меняют стандартные настройки на своих платформах. Однако, анализ более чем 21 000 веб-сайтов Squarespace показал, что средний SEO-балл составлял всего 40,5 из 100. Значительное количество – 66,4% – не имело описательного alt-текста для изображений, и почти половина (47%) использовали несколько тегов заголовка H1. Эти результаты показывают, что для многих веб-сайтов встроенные настройки платформы в значительной степени определяют, насколько хорошо они работают в результатах поиска.

Грин не уклонялся от ответа, написав:

Многие SEO-специалисты чувствуют, что Google должен быть им благодарен, потому что они помогают поддерживать работу интернета. Однако, я не думаю, что индустрия SEO в целом оказывает столько влияния, как считают некоторые люди.

Парадокс производительности

Основные показатели веб-страниц (Core Web Vitals) вносят усложнение: просто наличие хороших настроек по умолчанию не гарантирует автоматически более высокие позиции в поисковой выдаче.

Когда речь заходит о скорости мобильных веб-сайтов, сайты на WordPress проходят тест Google Core Web Vitals только в 45% случаев – это самый низкий показатель среди популярных платформ. Duda лидирует с показателем прохождения в 85%, а Wix идет следом с 75% – это значительное улучшение по сравнению с прошлым годом. Wix также преуспевает в поисковой оптимизации, достигая идеального результата в 100 баллов по Lighthouse SEO последние два года, чего не смог достичь ни один другой платформа. WordPress набирает впечатляющие 92 балла в этой области.

Недавний анализ более чем 59 000 самых эффективных веб-сайтов показал, что почти половина (49%) использует WordPress в качестве своей системы управления контентом (CMS), что делает его явным лидером. В то время как Wix и Shopify редко появляются среди самых популярных сайтов, Drupal удивительным образом занимает значительную долю – от 6% до 7% – веб-сайтов с самым высоким трафиком, несмотря на то, что составляет менее 1% от всех сайтов, работающих на CMS.

Наш анализ производительности веб-платформ за несколько лет показывает четкую тенденцию: высокопроизводительные сайты на WordPress с премиум-хостингом и тщательной оптимизацией процветают, в то время как типичные сайты на WordPress, использующие базовый общий хостинг и неоптимизированные плагины, снижают общую среднюю производительность платформы. Фактически, около половины всех сайтов на WordPress не проходят тесты Core Web Vitals просто потому, что их серверы слишком медленные.

Комплексные платформы обеспечивают более надежные результаты, поскольку они обрабатывают каждый аспект процесса создания веб-сайта. Исследования Web Almanac показали, что платформы с большим контролем над своими системами достигают наибольших улучшений. В отличие от WordPress, который допускает множество настроек и вариаций, платформы, такие как Wix и Duda, поддерживают более стабильный опыт.

Shopify добавляет ещё один уровень сложности. Даже несмотря на то, что он создан для интернет-магазинов – типа веб-сайта, который обычно требует высокой производительности – он достигает лишь 77.95% хорошего результата Core Web Vitals. Shopify также имеет присущие ограничения SEO, которые стандартные методы оптимизации не могут решить. К ним относятся требуемые структуры URL (например, /products/ или /collections/), проблемы с дублирующимся контентом, вызванные структурой коллекций, и ограничение в 100 000 перенаправлений, которое требует специальных знаний для эффективного управления.

Базовая технология обеспечивает основу и типичный уровень производительности, в то время как специализированные знания предлагают потенциал для исключительных результатов. Разница между этими двумя – это то, где консалтинговые услуги продолжают приносить пользу.

WordPress на перепутье

Данные от W3Techs показывают, что WordPress начал терять долю рынка в 2022 году, поскольку рынок стал перенасыщенным и конкуренция возросла. Это было еще больше усугублено в сентябре 2024 года разногласиями с WP Engine, что вызвало опасения по поводу того, как управляется WordPress.

В октябре 2024 года Automattic взяла под контроль плагин Advanced Custom Fields от WP Engine, что ознаменовало первый случай за 21-летнюю историю WordPress, когда плагин был насильственно передан под контроль другой компании. WP Engine подала в суд, и в декабре 2024 года суд временно заблокировал действия Automattic. Юридическая битва продолжается по состоянию на 2026 год.

В мае 2024 года Five for the Future сообщила, что Automattic профинансировала примерно половину всех отслеживаемых спонсорских вкладов. WordPress выпустила два значительных обновления в 2025 году, меньше, чем обычные три, но планы на 2026 год направлены на возвращение к типичным трем выпускам.

С декабря 2024 года по декабрь 2025 года WordPress показал небольшое снижение своей доли рынка (на 2.9%), в то время как Wix и Squarespace испытали значительный рост, увеличившись на 22.4% и 6.2% соответственно. Несмотря на эти изменения, не произошло массового перехода с WordPress, вероятно, потому что переключение платформ может быть сложным и дорогостоящим. Однако, эта ситуация выявила потенциальную проблему: большая часть веб-сайтов (43%) полагается на WordPress, и его будущее развитие может быть затронуто решениями одной компании – риск, который многие владельцы веб-сайтов не до конца учли.

Йост де Валк, основатель Yoast SEO, был отстранен от участия в качестве спикера на WordCamp Asia 2025 после того, как Мэтт Мулленвег, ключевая фигура в проекте WordPress, фактически запретил ему выступать. Это последовало за публичными призывами де Валка к изменениям в системе управления WordPress, направленными на ограничение единоличной власти принятия решений Мулленвегом. Двадцать давних основных разработчиков также подписали письмо с просьбой о более ориентированной на сообщество системе управления. Хотя Мулленвег позже частично уладил ситуацию, сняв запреты и снова принимая вклад, сообщество WordPress полностью не восстановило свое доверие.

Снижение на рынке на самом деле началось за два года до этого разногласия, поэтому оно не было причиной. Однако, ситуация подчеркнула риски концентрации столь большого контроля над основной инфраструктурой интернета в руках всего нескольких компаний. Любой, кто помогает клиентам выбирать платформы, должен обязательно учитывать это при составлении рекомендаций.

Что это значит для практиков

В наши дни базовое техническое SEO часто выполняется автоматически для веб-сайтов, созданных на платформах, таких как Wix. Когда платформа обновляет свои системы, эти изменения мгновенно влияют на миллионы веб-сайтов. Это гораздо больший масштаб, чем тот, которым обычно может управлять индивидуальный SEO-консультант.

Наши данные и наблюдения показывают, что наиболее важная и прибыльная работа ведется со специализированными проектами. Например, помощь торговцам в переходе на Shopify одновременно сложна и ценна – просто из-за таких ограничений, как лимит в 100 000 перенаправлений, и потому что сложные миграции веб-сайтов могут значительно повлиять на онлайн-трафик бизнеса.

Понимание настроек по умолчанию таких платформ, как Wix и Shopify, становится все более важным. Каждая платформа обрабатывает вещи по-разному с самого начала, и знание этих различий может быть действительно ценным, когда клиент решает между ними или переходит с одной на другую.

Недавний анализ более чем 21 000 веб-сайтов Squarespace показал средний SEO-рейтинг 40.5 из 100. Это показывает, что даже веб-сайты, созданные на удобных платформах, все еще нуждаются в оптимизации, чтобы показать наилучшие результаты в поисковой выдаче.

Отслеживание того, как AI-системы ‘видят’ ваш веб-сайт, становится все более важным. Данные из Web Almanac показывают значительный рост – 55% – упоминаний GPTBot в файлах robots.txt за последний год, а ClaudeBot почти удвоился. SEO-эксперт Aleyda Solis (Green) предупредила, что ограничение AI-ботов для экономии серверных затрат может серьезно навредить видимости вашего сайта в AI-поисковых системах и обучающих данных. В конечном итоге, владельцам веб-сайтов и SEO-специалистам предстоит найти правильный баланс между управлением серверной нагрузкой, обеспечением использования их контента для AI-обучения и поддержанием высоких позиций в AI-поиске – платформы не могут сделать это за них.

Заглядывая в будущее

Когда я начал отслеживать использование систем управления контентом (CMS) в Search Engine Journal, WordPress был явным лидером, и существовало множество более мелких CMS-решений. Теперь, спустя десятилетие, на три платформы приходится 73% рынка, и их технические решения сильно влияют на то, как большинство веб-сайтов отображаются в результатах поиска.

В то время как отдельные эксперты SEO остаются важными для оптимизации конкретных веб-сайтов, инженерные команды нескольких компаний теперь оказывают большее общее влияние на технический SEO, чем все консультанты SEO вместе взятые. Неясно, признала ли индустрия SEO в целом этот сдвиг в силе.

Как отметил веб-аналитик Энди Грин, если вы хотите действительно изменить ситуацию в сети, ваши усилия лучше всего сосредоточить на популярных платформах, таких как WordPress, Wix или Shopify.

Смотрите также

2026-03-16 16:13

Как ИИ-агенты решают, какие бренды рекомендовать: Доверие – новый фактор ранжирования

Разрешите ли вы ИИ-агенту потратить 50 000 долларов из бюджета вашей компании, не проверяя его работу?

Вероятно, нет.

В настоящее время маркетинговая индустрия поглощена дебатами о владении аккаунт-менеджерами и географических стратегиях – и даже о том, что означают эти термины. В то же время, многие сосредоточены на том, как OpenAI может интегрировать баннерную рекламу в ChatGPT.

Нам нужно сместить фокус с простого обеспечения работы веб-сайтов с ИИ на создание брендов, которые могут процветать с полностью независимыми системами ИИ.

Самое большое изменение заключается не просто в том, *что* ИИ совершает покупки, а в том, *кто* контролирует процесс. Поскольку ИИ становится все более способным выбирать продукты, предлагать компании и завершать транзакции за нас – будущее, которое мы называем ‘agentic commerce’ – ключевым вопросом становится: как мы сможем завоевать доверие этих ИИ-агентов, чтобы они выбирали *нас*?

The Trust Architecture Of AI Agents

Хотя кажется, что главной задачей является предоставление ИИ возможности что-либо покупать, на самом деле, построение доверия к их решениям — задача более сложная.

Недавнее исследование исследователей Уортонского университета Стефано Пунтони, Эрика Германна и Дэвида Швейдела объясняет, как создавать ИИ-системы, которым люди действительно будут доверять. Ключевой вывод заключается в том, что доверие строится за счет помощи пользователям в обретении большей уверенности при столкновении с непредсказуемыми ситуациями.

Авторы выделяют три ключевых элемента, которые, с точки зрения маркетинга, также служат руководством к тому, чтобы стать человеком, которого другие будут рекомендовать.

1. Обоснование и согласование целей

Чтобы чувствовать себя увереннее перед тем, как предпринять какие-либо действия, ИИ должен понять, чего хочет пользователь, и чётко объяснить свою логику выбора конкретного пути действий.

Вот ключевое маркетинговое понимание: ИИ не предложит бренд, если не сможет логически объяснить *почему* это хороший выбор для человека. Ему необходимо чётко показать преимущества, недостатки, потенциальные риски и любые связанные с этим предубеждения.

Просто пытаться убедить людей недостаточно. Вам также необходимо подтверждать свои утверждения надёжной, проверяемой информацией – такой как чёткие цены, достижимые сроки, честное признание недостатков и реальные преимущества перед конкурентами.

2. Экшен и Отклик

Как SEO-эксперт, я всегда подчеркиваю важность чёткой коммуникации. И когда мы говорим об AI агентах, это означает демонстрацию *как* они работают, а не просто *того*, что они работают. В частности, крайне важно продемонстрировать, как агент реагирует на пользовательский ввод и, что важно, как он корректирует своё поведение на основе этой обратной связи – то, что некоторые исследователи называют «обратной связью на обратную связь». Речь идет о прозрачности и построении доверия путем демонстрации процесса обучения.

Вот ключевой маркетинговый урок: специалисты по продажам предпочитают работать с компаниями, которые легко понять и которым можно доверять. Если для того, чтобы понять, как работает ваш продукт, требуется много усилий – например, несколько телефонных звонков и загрузка ограниченных документов – вы, вероятно, проиграете конкурентам, которые предлагают четкую документацию, простой процесс установки и очевидные инструкции.

3. Интерфейс и «Против подхалимства»

Многие AI-системы разработаны, чтобы быть полезными, соглашаясь с пользователями и подтверждая их ожидания. Однако исследователи из Wharton предполагают, что построение настоящего доверия требует от AI большей настойчивости – запрашивать больше деталей, указывать на потенциальные проблемы и даже не соглашаться, когда это необходимо.

Как digital-маркетолог, я усвоил, что лучшие агентства — это не просто исполнители заказов, а настоящие консультанты. Они действительно глубоко погружаются в детали — такие вещи, как ваш бюджет, любые ограничения, которые у вас есть, необходимость соблюдения конкретных правил и то, как все это будет интегрировано с вашими существующими системами. Это означает, что ваш бренд должен быть надёжным. Вам нужны исчерпывающие FAQ, подробная информация о внедрении и возможность обрабатывать нюансированные сравнения — в основном, достаточно глубины, чтобы выдержать серьёзный допрос. Если агентство не задаёт эти сложные вопросы, это тревожный сигнал.

Почему доверие становится ранжирующим фактором: Передача риска

Суть агентного сдвига заключается в том, кто несет риск.

Традиционные поисковые системы не несут особой ответственности. Если вы ищете что-то вроде CRM и в итоге получаете плохой продукт, вы будете расстроены компанией, которая его продала, а не самой поисковой системой.

Как только вы делегируете принятие решения AI-агенту, это меняется.

Если торговый представитель самостоятельно выбирает и устанавливает систему управления взаимоотношениями с клиентами (CRM) стоимостью 50 000 долларов, и всё идёт не так, как надо, клиент потеряет доверие как к торговому представителю, так и к компании, которую он представляет.

Поскольку агенту необходимо объяснить, почему он рекомендует конкретного поставщика, он естественным образом склоняется к тем, кого может легко обосновать, а не просто выбирать варианты с самым высоким рейтингом.

Поскольку помощнику на основе искусственного интеллекта необходимо быть надёжным для продолжения работы, он быстро станет осторожным. Он не может рисковать принятием решений, основанных на недостоверной информации или слабых доказательствах.

Эта система не будет отдавать вам предпочтение только потому, что ваш текст написан умно или вы овладели быстрой SEO-тактикой. Она порекомендует вас, потому что, основываясь на своих данных, вы представляете собой наиболее надёжный и оправданный вариант.

Как digital-маркетолог, я вижу, что доверие становится всё более важным – и похоже, что Google рассматривает его как сигнал ранжирования. Но это не просто *любое* доверие; это ‘калиброванное доверие’. Это означает, что Google смотрит, насколько надёжными, последовательными и проверяемыми доказательствами подкрепляются утверждения о вашем бренде. Чем больше доказательств вы сможете предоставить, тем увереннее будет Google – и пользователи – и тем выше, вероятно, будут ваши позиции в рейтинге.

От Видимости к Соответствию требованиям

Это меняет наше представление об успехе.

Новое исследование от Рэнда Фишкина и SparkToro показывает, что запрос к ИИ о рекомендациях брендов непостоянен – вы будете получать разные результаты каждый раз, с разными брендами, порядком и размером списков. Попытки анализировать эти списки, сгенерированные ИИ, как рейтинги поисковых систем, по сути, являются измерением случайных колебаний.

Несмотря на все варианты, небольшая группа брендов неизменно выделяется. Это бренды, которые система надёжно представляет пользователям, поскольку считает их надёжным выбором.

Теперь вы оптимизируете для соответствия требованиям, в дополнение к видимости.

Что маркетологам нужно делать по-другому

Сдвиг от «привлечь внимание» к «доказать надёжность»:

1. Сделайте Ваши Данные Читаемыми

При создании продуктов и веб-сайтов помните о необходимости учитывать как людей, так и автоматизированные системы. Чёткая, организованная информация о продукте, чётко определённые спецификации и простые в использовании API сейчас необходимы. Если компьютерная программа не может легко понять, что вы предлагаете, клиенты, вероятно, выберут кого-то другого.

2. Устраните излишнюю двусмысленность

Не заставляйте потенциальных клиентов прыгать через обручи, чтобы найти важную информацию, такую как цены, соглашения об уровне обслуживания и требования к интеграции с вашей системой. Если ваша команда продаж не может легко получить доступ к этим деталям, чтобы объяснить ваш продукт, они, скорее всего, выберут конкурента, который предоставляет их сразу.

3. Усиление внешней валидации

Люди часто полагаются на согласие, чтобы чувствовать себя в безопасности и минимизировать риск. По этой причине доказательства из внешних источников имеют решающее значение – такие вещи, как отзывы клиентов, оживленные онлайн-сообщества, полезные руководства, созданные другими, и отчеты от надежных аналитиков и новостных изданий. Чем больше у вас доказательств из реального мира, тем легче оправдать свои решения.

4. Создавайте для «Покажите свою работу»

Как веб-мастер, я всегда сосредотачиваюсь на оснащении нашей команды продаж. Я слежу за тем, чтобы мы предоставляли такие ресурсы, как сравнительные таблицы, калькуляторы ROI и подробные тематические исследования – вещи с *реальными цифрами* в них. Я также создаю руководства, которые помогают нам позиционировать себя как лучшее решение для конкретных потребностей клиентов. Все это дает нашим агентам веские доказательства, необходимые им для демонстрации потенциальным покупателям, почему мы являемся главным претендентом, и они могут использовать их снова и снова.

The New Mandate

Мы движемся к будущему, где вместо ввода поисковых запросов и перехода по результатам вы просто зададите вопрос и получите прямой ответ.

В эпоху видимости ваша задача заключалась в том, чтобы привлечь внимание человека.

Когда вы пытаетесь устроиться на работу, вам необходимо доказать потенциальным работодателям, что вы сильный кандидат и что они могут уверенно выбрать вас среди других.

Смотрите также

2026-03-16 15:40

Google делится дополнительной информацией об ограничениях сканирования Googlebot.

Как человек, который годами занимается управлением веб-сайтами, я всегда обращаю внимание, когда Гэри Ильес и Мартин Сплитт из Google обсуждают профессиональные вопросы. Недавно они углубились в то, как Googlebot, их веб-краулер, обрабатывает обход сайта. Они объяснили *почему* существуют ограничения на то, какую часть сайта будет обходить Googlebot, и – это действительно интересная часть – они поделились тем, что эти ограничения не являются фиксированными. Google может фактически увеличивать или уменьшать скорость обхода в зависимости от потребностей сайта и того, чего он пытается достичь. Хорошо знать, что они гибки в этом вопросе, и это дает нам больше понимания того, как оптимизировать наши сайты для обхода.

Детали об ограничениях Googlebot

Гэри Ильес объяснил, как Google управляет процессом обхода веб-страниц, начиная с того факта, что Googlebot ограничен загрузкой страниц размером до 15 мегабайт.

По его словам, веб-краулеры Google обычно ограничены 15 мегабайтами данных. Однако он уточнил, что этот лимит не фиксирован и может быть скорректирован. Он объяснил, что разные команды Google часто меняют эту настройку, приводя в пример Google Search – он фактически использует более низкий лимит, всего два мегабайта.

Как SEO-эксперт, я часто сталкиваюсь с техническими ограничениями, которые влияют на то, что мы можем сделать. Классический пример – это ограничение по умолчанию в 15 мегабайт – это мера безопасности, встроенная в систему для защиты как пользователей, так и самой инфраструктуры. Это распространенное препятствие, но понимание того, почему оно существует, является ключом к обходу его.

Большинство веб-краулеров будут ограничивать объем загружаемых данных с сервера до 15 мегабайт, если они не изменят эту настройку по умолчанию. Они начинают получать данные, и внутренний счетчик отслеживает, сколько они получили. Как только этот счетчик достигает 15 мегабайт, краулер перестает загружать какие-либо дополнительные данные.

Я не уверен, заканчивает ли это фактически соединение. Похоже, что он просто говорит серверу: «Окей, я закончил, вы можете прекратить отправку данных сейчас».

Однако отдельные команды имеют возможность изменить это ограничение по умолчанию, и они часто это делают. Например, ограничение для Google Search специально установлено выше, на два мегабайта.

Ограничения для Googlebot предназначены для защиты инфраструктуры.

Затем Ильес объяснил, как Google иногда делает исключения из своего лимита в 15 МБ, особенно для файлов, таких как PDF, чтобы разрешить более тщательное сканирование. Он уточнил, что эти лимиты введены для предотвращения перегрузки систем Google чрезмерным объемом данных.

Он обрабатывает большинство типов файлов. Для PDF-файлов конкретно лимит составляет около 64 мегабайт, но если вы экспортируете PDF, он может быть до 96 мегабайт.

Попытка получить все эти данные сразу и преобразовать их в веб-страницу была бы слишком большой нагрузкой для наших систем. Это просто подавляющее количество информации.

Тот же принцип применим и к HTML. Мы не загружаем весь стандарт HTML сразу – один файл может быть довольно большим, около 14 мегабайт. Вместо этого мы получаем отдельные страницы, которые охватывают конкретные функции HTML. К счастью, стандарт организован таким образом, что позволяет нам эффективно получать информацию, а не пытаться разобраться в одном огромном документе размером 14 мегабайт.

Другие Google Crawlers имеют различные лимиты.

Illyes объяснил, что Google использует несколько сканеров, и у каждого из них разные лимиты сканирования. Лимиты, которые публикует Google, — это не строгие правила, применимые к каждому используемому им сканеру.

Я не работал над другими веб-краулерами, но уверен, что у всех они имеют разные конфигурации. Даже в рамках одного проекта настройки могут отличаться для одних и тех же функций.

Если нам нужно очень быстро индексировать информацию, мы можем ограничить размер каждого элемента примерно до одного мегабайта. Я не уверен, так ли это сейчас, но это имеет смысл – меньшие объемы данных легче и быстрее обрабатываются через систему индексирования.

Инфраструктура обхода Google не является монолитной.

В конце недавнего эпизода Search Off The Record Мартин Сплитт объяснил, что система Google для изучения веб-страниц гораздо более адаптируема и разнообразна, чем то, что Google публично документирует. Он уточнил, что это не единая, неизменная система – то, что часто называют ‘монолитной’. Термин ‘монолитный’ подразумевает что-то жесткое и последовательное, поэтому, заявив, что краулеры Google не являются монолитными, Сплитт подчеркнул их способность корректировать такие вещи, как частота запроса информации с веб-сайтов и другие настройки.

Он также сосредоточился на описании поисковой инфраструктуры Google как программного обеспечения как услуги.

Вы правы. Важно понимать, что сканирование – это не единый процесс. Это скорее сервис, похожий на работу поисковых систем в интернете – поисковые системы являются лишь одним из многих пользователей этого сервиса, а не единой, унифицированной системой.

Как вы отметили, эти настройки могут варьироваться. Даже внутри Googlebot они могут меняться в зависимости от того, что ищут. Например, мы, вероятно, разрешаем изображения быть больше 2 мегабайт, просто потому, что большинство изображений такого размера или больше. Мы разрешаем до 64 мегабайт для PDF. Мы предоставим ссылки на официальную документацию для конкретики, но всё это кажется логичным.

Если рассматривать это как сервис, который мы используем с определенными настройками, становится яснее, что эти настройки могут варьироваться для каждого запроса, а не быть фиксированными для чего-то вроде Googlebot.

Послушайте эпизод Search Off The Record с 20-й минуты:

https://www.youtube.com/watch?v=JpweMBnpS4Q

Смотрите также

2026-03-16 13:16