Ждём ли мы ещё одно обновление в стиле Флориды?

Обновления поисковых систем, такие как Florida, Allegra, и Brandy, стали значительными изменениями в том, как веб-сайты отображаются в результатах поиска, и они изменили всю область поисковой оптимизации (SEO).

Недавние изменения привели к значительным и неожиданным результатам: рейтинги веб-сайтов быстро упали, целые типы сайтов исчезли из результатов поиска, и ранее надежные стратегии внезапно перестали работать.

По мере того как ИИ создаёт всё больше и больше контента, возникает новая проблема: веб быстро заполняется 大量低质量的页面. Этот быстрый рост контента напоминает то, что мы наблюдали перед крупными обновлениями алгоритмов поисковых систем в прошлом.

Технологии поиска менялись со временем, но проблемы, с которыми они сталкиваются, начинают казаться знакомыми. Хотя мы, вероятно, не увидим повторения прошлых крупных переработок точно такими, как они происходили раньше, проблемы, которые вызвали эти изменения, снова возникают. Если эти проблемы усугубятся, то еще одна значительная перестройка вполне возможна.

Масштабируемый контент низкой ценности хуже, чем когда-либо.

Мы начинаем замечать возрождение некачественного контента в интернете, и искусственный интеллект является одной из главных причин этого. ИИ значительно удешевил и упростил создание контента, что привело к огромному увеличению количества публикуемых страниц. Это особенно заметно в результатах поиска по информационным темам, где любому стало проще создавать контент.

Более заметной проблемой является уровень схожести между этим контентом.

Большое количество онлайн-контента имеет тенденцию следовать одной и той же формуле, освещая одни и те же темы и приходя к одним и тем же выводам. Хотя этот контент обычно легко понять и он, как правило, фактический, ему часто не хватает глубины, оригинальности и уникальной точки зрения, необходимых для того, чтобы быть по-настоящему полезным, ценным и хорошо ранжироваться в результатах поиска Google с течением времени.

Проблема с контентом, генерируемым ИИ сегодня, похожа на проблему, которую обновление Panda от Google решала с устаревшими ‘контент-фермами’. Дело не только в *количестве* создаваемого контента, но и в том, что большая его часть повторяется и легко заменяется. Эта новая волна контента, генерируемого ИИ, еще более проблематична, потому что она производится в гораздо большем масштабе и удивительно хорошо написана, что делает ее одновременно более убедительной и более трудной для выявления и удаления.

Корректировка в реальном времени с обновлениями в реальном времени.

Как эксперт по SEO, я слежу за тем, как Google борется с некачественным контентом, и это на самом деле довольно сложный процесс. Они не полагаются только на одну вещь; это целая система, работающая вместе. Их ‘Helpful Content System’ оценивает общее качество веб-сайта, а ‘SpamBrain’ действует как детектив, выявляя закономерности, которые указывают на попытки обойти систему с помощью низкокачественного или манипулятивного контента. И затем, основные обновления Google постоянно корректируют рейтинги, чтобы убедиться, что лучший, самый полезный контент поднимается наверх. Речь идет о непрерывной оценке и корректировке.

Эти системы работают, внося постоянные корректировки вместо крупных, одноразовых изменений. Основное обновление в марте 2024 года является хорошим примером – оно постепенно устраняло некачественный и массово производимый контент, не вызывая резкого сдвига. В результате, рейтинги некоторых веб-сайтов упали, другие улучшились, а большинство испытали сочетание прибылей и убытков с течением времени.

Это показывает изменение в нашем подходе к контролю качества. Вместо того, чтобы исправлять всё сразу, мы стремимся к постоянному улучшению и балансу. Этот метод работает только в том случае, если наша система может адаптироваться и справляться с возникающими проблемами.

Непрерывные системы не всегда достаточны.

Проблема заключается не только в огромном объеме создаваемого контента, но и в скорости его публикации. Такой быстрый темп может перегрузить системы, предназначенные для проверки и оценки этого контента. В результате, низкокачественные страницы могут начать появляться в результатах поиска до того, как они будут должным образом идентифицированы и отфильтрованы.

Когда разрыв между тем, что люди ищут, и доступной информацией растет, результаты поиска могут постепенно становиться менее полезными. Пользователи могут видеть повторяющуюся одну и ту же информацию или находить контент, который не содержит достаточно деталей, что может со временем подорвать их доверие к Google. Хотя система не выходит из строя полностью, это предупреждающий знак. Если люди перестанут доверять результатам поиска, они перестанут использовать Google, что в конечном итоге повлияет на прибыль компании.

В настоящее время мы проверяем, может ли наш текущий метод постоянной проверки производительности угнать за собой быстрый рост, и мы ещё не определили его предел прочности.

Аргументы в пользу ещё одной Флориды.

Зависит ли возможность выпуска еще одного крупного обновления от того, насколько хорошо текущая система справляется с существующей нагрузкой.

Google может выпустить значительное обновление, которое кардинально изменит то, как он оценивает качество веб-сайтов, быстро понижая контент, который он считает некачественным. Google использует высоко оцененный контент в качестве эталона качества, как они объяснили на конференции в 2025 году. Хотя это отличается от предыдущего обновления ‘Florida update‘, это изменение может привести к быстрой потере позиций для многих веб-сайтов.

Google, вероятно, выпустит крупное обновление поиска, если пользователи постоянно находят результаты поиска бесполезными или повторяющимися и начинают сомневаться в их точности. Если обычные исправления Google не работают достаточно быстро, они с большей вероятностью внесут более существенные изменения.

Перекалибровка контента как тактика

Контент, который хорошо работает сейчас, как правило, предлагает что-то, что нельзя легко повторить.

Качественные ответы часто демонстрируют практические знания, предлагают хорошо аргументированную точку зрения или предоставляют действительно полезную информацию, которая не является просто общей. Также важно, чтобы ответ напрямую отвечал на запрос пользователя, чтобы оставаться актуальным в результатах поиска в долгосрочной перспективе.

Эти идеи не новы, но сейчас мы применяем их более надёжно и, при необходимости, с большей силой, чтобы гарантировать правильную работу системы.

Это система, находящаяся под давлением.

Зависит ли от того, увидим ли мы еще одно крупное обновление, подобное тому для Florida, от того, насколько хорошо текущая система справляется с растущими требованиями. Google сейчас сосредоточен на постоянном мониторинге и улучшении, что означает, что крупных, разрушительных изменений, вероятно, потребуется меньше, когда все будет работать плавно.

Мы начинаем видеть проблемы, которые заставили нас внести изменения ранее, но теперь они возникают из-за того, насколько много контента создается с помощью AI. Если эти проблемы усугубятся и люди начнут терять доверие к нашим результатам поиска, нам, вероятно, придется предпринять более решительные действия.

Система постоянно развивается благодаря небольшим, непрерывным обновлениям, а не крупным переработкам. Она решает в реальном времени, достаточно ли ценен контент для показа пользователям.

Когда ситуация становится подавляющей, медленные и последовательные подходы часто переходят к более немедленным действиям. Если это произойдет снова, мы можем ожидать смелого и решительного ответа.

Смотрите также

2026-03-26 15:10

Обновление Google по спаму в марте прошло незаметно, но может сигнализировать о более значительных изменениях.

Как человек, который годами создавал и поддерживал веб-сайты, я действительно надеялся, что масштабное обновление спама от Google в марте 2026 года наконец-то решит проблемы, с которыми мы все сталкивались – такие вещи, как бесконечные списки, сайты, просто переписывающие контент с помощью AI, и даже AI Overviews от Google, которые иногда казались просто пересказом того, что уже сказали другие. Честно говоря, все это было немного разочаровывающим. Оно завершилось удивительно быстро, менее чем за двадцать четыре часа, и, казалось, не произвело большого всплеска. Но даже несмотря на то, что это не была масштабная переработка, я сделал несколько полезных наблюдений о том, как Google это запустил.

Надеющиеся SEO-специалисты

SEO-сообщество в целом отреагировало положительно на недавнее объявление Google о борьбе со спамом, надеясь, что это понизит в поисковой выдаче сайты более низкого качества. Однако общая реакция оказалась на удивление спокойной, что говорит о том, что обновление не оказало того большого влияния, которого многие ожидали.

EmarketerZ считает, что веб-сайты, страдающие от недобросовестных конкурентов, наконец-то могут увидеть улучшение в своих позициях в поисковой выдаче.

Они написали в Твиттере:

Google недавно выпустила обновление, направленное на снижение спама, и многие веб-издатели надеются, что оно поможет им восстановить потерянный трафик – долгожданное изменение после предыдущих трудностей.

Как SEO-специалист, я был очень заинтересован увидеть реакцию Адриана М. на недавнее объявление Google в LinkedIn. Он попал в точку – Google давно пора было решить проблему искусственного вовлечения. Искоренение этих фальшивых тактик – это то, на что многие из нас в индустрии надеялись, и это положительный шаг к более аутентичному онлайн-ландшафту.

Это было неизбежно, и очень необходимое изменение для индустрии. Многие SEO-компании использовали ботов и поддельные IP-адреса, чтобы создать видимость реальной активности и улучшить свои отчеты. Я видел, как веб-сайты почти рушились под нагрузкой этих автоматизированных скриптов, которые притворяются клиентами, добавляющими товары в свои корзины. Это обновление устранит вводящие в заблуждение данные и вернет фокус на создание ценного контента и привлечение реальных клиентов. Команда поиска приняла отличное решение!

Сдержанная реакция от цифровых маркетологов.

Было странно, что многие SEO-эксперты, которые обычно выступают против манипулятивной локальной SEO и общей спам-тактики, не высказались по поводу недавнего обновления в отношении поискового спама.

Подождите, что? Обновление Spam за март 2026 года завершено. Чёрт, это было быстро. 🙂

Ох, парень

— Lily Ray 😏 (@lilyraynyc) 24 марта 2026 г.

Объявление об обновлении спам-фильтров от Google на сабреддите Google не вызвало большой дискуссии. Из немногих ответов, которые оно получило, большинство людей просто попросили ссылку на официальные подробности, что указывает на общее отсутствие волнения или беспокойства.

Обсуждение на сабреддите SEO было примерно таким же, и многие комментаторы скептически относились к тому, что что-то значительное произойдет.

Один человек выразил надежду, что на этот раз фермы контента, генерируемого ИИ, будут уничтожены.

Они написали:

Я ожидаю, что Google вскоре начнёт наказывать веб-сайты, которые используют много контента, сгенерированного ИИ, или сильно полагаются на некачественные партнерские ссылки. Они уже некоторое время намекали на это изменение, и кажется, что оно вот-вот произойдёт.

Но другой пользователь Reddit с ником mrtornado79 ответил большим «нет»… и полезным наблюдением.

Как цифровой маркетолог, я слышу об основном обновлении Google, которое должно наконец-то пресечь низкокачественный контент, сгенерированный искусственным интеллектом, уже около трех лет. Честно говоря, это стало избитой шуткой в мире SEO. Каждые несколько месяцев Google выпускает обновление, кто-то предсказывает, что это то, которое наконец-то уничтожит AI-фермы контента, но обычно все остается практически прежним. Это цикл, который мы постоянно наблюдаем.

Google описал недавние изменения как типичное обновление своих спам-фильтров. Это не масштабная переработка, и это определенно не признак того, что контент, сгенерированный искусственным интеллектом, захватывает интернет. Они называют это обычным ходом дел.

Было полезно отметить, что Мартовское обновление спама от Google не было крупным изменением. Вероятно, это объясняет, почему Google не посчитала нужным обновить свою официальную информацию об обновлении.

Удивительно, но некоторые SEO-группы в Facebook даже не упомянули недавнее обновление, что говорит о том, что SEO-специалисты не слишком обеспокоены этим. Это может означать, что усилия Google по борьбе со спамом действительно работают, значительно влияя на тех, кто полагается на некачественные партнерские сайты и частные блог-сети.

Подождите, Что… Это Всё?

После выхода обновления онлайн-дискуссии в основном стихли.

«Хм? Обновление закончилось?»

Похоже, реддитор mrtornado79, вероятно, был прав – недавнее событие всё же не стало крупным поворотным моментом.

Что может произойти дальше

Большой вопрос сейчас может быть не в том, что только что произошло, а скорее в том, что произойдёт дальше.

Я всегда рассматривал обновления Google по борьбе со спамом как способ подготовиться к более масштабным изменениям. Если за крупным обновлением последует это недавнее, тонкое обновление по борьбе со спамом, оно могло готовить почву. Эта подготовка может включать в себя всё, от внедрения новых функций на основе ИИ – таких как переписывание заголовков, которые они тестируют – до более тихих, закулисных изменений, поддерживающих что-то большее и новое.

Что Google может внедрить в ближайшие месяцы?

Недавно были поданы два патента, информацию о которых я опубликую в ближайшее время.

Этот патент описывает систему машинного обучения, которая определяет, как просмотр различного контента влияет на вероятность совершения пользователем действия, например, покупки или подписки на сервис. Система отслеживает, какие конкретно элементы контента или рекламы способствовали этому действию, даже если пользователь видел их в разное время.

Это изобретение направлено на улучшение результатов поиска путем их автоматического обновления после первоначального поиска, избавляя пользователя от необходимости искать снова. Это относится как к традиционным, так и к поиску на основе искусственного интеллекта. Вместо единого поиска это создает непрерывный процесс, в котором информация развивается с течением времени. Это особенно полезно для вопросов о будущих событиях или неанонсированной информации, позволяя Google отвечать на более широкий спектр запросов.

Я часто воспринимаю обновления Спама как признак того, что Google готовится внести более широкие изменения в свой поисковый алгоритм или базовые системы. Ближайшие несколько недель могут быть весьма интересными.

Смотрите также

2026-03-26 14:10

Google Analytics запускает Scenario Planner и Projections

Google Analytics теперь предлагает Планировщик сценариев и Прогнозы, инструменты, которые помогают рекламодателям создавать и отслеживать свои рекламные бюджеты на различных платформах.

Это обновление связано с тестовой функцией в Google Analytics, называемой межканальным бюджетированием. В настоящее время она находится в бета-версии, что означает, что она пока недоступна для всех пользователей.

Читайте далее, чтобы узнать больше об инструментах, кто имеет право на их использование и как рекламодатели могут их использовать.

Представляем Scenario Planner и Projections

Этот запуск включает в себя два отдельных инструмента, разработанных для разных этапов планирования кампании.

Scenario Planner помогает планировать будущее, позволяя рекламодателям тестировать различные стратегии расходов по различным маркетинговым каналам. Он прогнозирует, как эти изменения могут повлиять на такие результаты, как продажи, доходы или общая прибыльность. Этот инструмент лучше всего использовать при создании медиапланов перед началом кампании или во время регулярных циклов планирования.

Как SEO-эксперт, я часто использую прогнозы, чтобы держать кампании моих клиентов на верном пути. По сути, это позволяет мне увидеть, идём ли мы по графику к достижению наших целей *до* окончания месяца. Я могу быстро проверить такие вещи, как прогнозируемые расходы на рекламу, количество конверсий, которые мы, вероятно, получим, и доход, который эти конверсии должны принести – всё это с разбивкой по каждому маркетинговому каналу. Это позволяет мне вносить разумные коррективы в середине кампании и максимизировать результаты.

Google разработала эти инструменты для бесперебойной совместной работы. Scenario Planner помогает создать бюджетный прогноз, а Projections позволяет отслеживать эффективность ваших кампаний по сравнению с этим прогнозом после их запуска.

Эта функция предназначена не только для Google Ads. Рекламодатели могут добавлять данные кампаний из всех своих источников платной рекламы – включая те, которые находятся за пределами Google – при условии, что информация о стоимости настроена правильно и установлены необходимые подключения.

Однако, определенные требования могут ограничить круг лиц, имеющих доступ к этому. Google заявляет, что для соответствия требованиям необходимо выполнить следующие критерии:

  • Не менее одного года данных о конверсии
  • Каналы с оплатой обязательны и должны быть совместимы по данным с Основной группировкой каналов.
  • Как минимум один год данных кампании как минимум из двух каналов (Google и не-Google).

Google отмечает, что оба инструмента используют прогнозы, основанные на прошлых данных, поэтому результаты предназначены в качестве общих рекомендаций, а не твердых гарантий.

Я внимательно слежу за функцией межканального бюджета от Google – она все еще в бета-версии, поэтому пока не отображается для всех в Google Analytics. Google сообщает нам, что они активно работают над внедрением ее в большее количество аккаунтов, что является отличной новостью. Я тестирую ее всякий раз, когда это возможно, чтобы увидеть, как это влияет на эффективность кампаний и атрибуцию.

Почему это важно для рекламодателей

Для многих команд планирование бюджета и анализ производительности всё ещё происходят в разных местах.

Обычно маркетинговые планы создаются с использованием электронных таблиц и прогнозов, но результаты отслеживаются позже в таких инструментах, как рекламные платформы и Google Analytics. Этот разрыв затрудняет быстрое понимание того, эффективны ли ваши расходы.

Эти инструменты переносят часть этого рабочего процесса планирования в Google Analytics.

Это было бы полезно для команд, отслеживающих расходы на различных рекламных платформах, особенно когда они хотят увидеть, насколько хорошо работают разные платформы по сравнению друг с другом, а не просто полагаться на данные с одной платформы.

Насколько полезной окажется эта функция, будет зависеть от качества ваших данных и того, как они настроены. Если ваша информация о затратах неполная, у вас недостаточно данных за прошлый период или отслеживание конверсий осуществляется непоследовательно, вы можете неэффективно использовать инструменты, и прогнозы могут быть не очень точными.

Что будет дальше?

Если вы уже используете Google Analytics для отслеживания результатов, Scenario Planner и Projections могут быть полезным способом тестирования различных вариантов бюджета до и во время работы ваших кампаний.

Вероятно, насколько полезными эти инструменты окажутся для ежедневного планирования, будет зависеть от двух вещей: от того, сколько рекламодателей смогут ими воспользоваться, и от того, насколько точными окажутся их прогнозы в долгосрочной перспективе.

Смотрите также

2026-03-25 20:09

Половина вашего трафика ушла. SEO-индустрия прислала мысли и фреймворки.

До запуска AI Overviews в мае 2024 года клиенты Define Media Group – ведущие американские издатели – стабильно получали около 1,7 миллиарда кликов из органического поиска каждый квартал. Это была надежная, предсказуемая цифра – тот тип стабильной производительности, на которую предприятия полагаются и часто воспринимают как должное.

После первоначального запуска трафик веб-сайтов снизился на 16% и не улучшился. Когда Google расширил свою функцию AI Overviews в мае 2025 года, этот спад стал еще более стремительным. К концу 2025 года органический поисковый трафик для этих веб-сайтов снизился на 42% по сравнению с уровнями до появления AI Overviews.

Почти половина органического поискового трафика сайта исчезла, и этот портфель достаточно значителен, чтобы представлять тенденции для всей издательской индустрии.

На протяжении двух десятилетий соглашение между создателями контента и Google – где создатели делают контент, Google доставляет зрителей, а деньги от рекламы поддерживают больше контента – двигало интернет вперед. Но эта система сейчас терпит неудачу, и вместо того, чтобы ее исправить, индустрия сосредоточена на анализе данных, а не на решении основной проблемы.

Новый Интерфейс, Та же Иллюзия

Когда всё изменилось в мире SEO, первая группа экспертов отреагировала, как обычно: они создали новые инструменты для отслеживания влияния.

За последние полтора года появилась новая индустрия, ориентированная на измерение того, как часто ваша торговая марка упоминается в ответах от AI-чатботов. Эти инструменты, аналогичные Google Search Console, предоставляют метрики ‘доли ответа’ и дают впечатление, что увеличение этих цифр означает успех, побуждая вас инвестировать больше в решения для их повышения. По сути, они отслеживают, насколько заметна ваша торговая марка в мире контента, генерируемого искусственным интеллектом.

Я уже говорил об этом раньше и скажу прямо: эти инструменты вводят вас в заблуждение данными, которые не являются надёжными. Когда в отчёте утверждается, что ваш бренд появился, скажем, в 73% ответов ИИ, это не означает, что ваш бренд имеет высокий рейтинг. На самом деле, они провели несколько поисков, посмотрели результаты и подсчитали, сколько раз ваш бренд был упомянут. Это похоже на случайность, а не на реальную меру эффективности.

Создатели этих AI-моделей сами не всегда понимают, почему они выдают определенные результаты. Тем не менее, некоторые программные инструменты утверждают, что могут легко объяснить всё с помощью простых диаграмм и прогнозов, несмотря на отсутствие реального понимания – это как претендовать на экспертность, когда её нет.

Как SEO-эксперт, я вижу эту закономерность постоянно. Компании продолжают покупать аналитические инструменты не потому, что они на самом деле *используют* данные, а потому, что признание в непонимании происходящего может стоить карьеры. Сложно сказать клиенту, что все эти красивые графики по сути бессмысленны. Поэтому поставщики продолжают продавать, панели мониторинга продолжают обновляться с активностью, и, откровенно говоря, метрики даже не должны влиять на конечный результат – достаточно небольшого движения, чтобы оправдать ежемесячную плату за подписку.

Джоно Алдерсон недавно объяснил эту идею в своей статье ‘Clicks Don’t Count (and They Never Did)’. Он утверждает, что SEO всегда фокусировалось на *том, как* вещи выглядят, а не на глубинных причинах успеха. Метрики, такие как рейтинги, трафик веб-сайта и показатели видимости, на самом деле не показывают, насколько хорошо бизнес справляется по сравнению с конкурентами; они лишь измеряют, как вещи выглядят *на поверхности*. На протяжении двадцати лет мы полировали видимые части нашего присутствия в сети и ошибочно называли это реальной стратегией.

Он прав. Сосредоточение на отслеживании запросов — это просто повторение прошлой ошибки — по сути, это тот же старый подход к поиску информации, замаскированный под что-то новое и отдельное.

Вторая группа придерживается более вдумчивого и аналитического подхода. Письма Джоно особенно хорошо представляют эту точку зрения, и я на самом деле согласен со многими из них, хотя, возможно, я не полностью выражаю это согласие здесь.

Вместо того чтобы сосредотачиваться на том, как бренд *выглядит*, мы должны измерять, насколько хорошо он *конкурирует*. Это означает изучение шести ключевых областей — подтвержденных годами маркетинговых исследований — таких как качество клиентского опыта, насколько легко доступен бренд, насколько хорошо он остается в памяти, насколько он уникален, его репутация и доказательства коммерческого успеха. Искусственный интеллект теперь может отслеживать, что люди говорят о брендах во всем интернете, а не только просматривать отдельные веб-страницы. Бренды, которые стабильно показывают хорошие результаты, — это те, которые замечают и продвигают. В конечном итоге, видимость — это *результат* конкурентоспособности, а не то, чего вы достигаете напрямую.

Я думаю, это в целом верно. Я также думаю, что у этого есть проблема с таймингом, размером с кратер.

Эти шесть факторов требуют годы развития. Создание сильного присутствия бренда – это долгосрочное обязательство. Хорошая репутация приходит от последовательного предоставления достойного опыта. А создание уникальных сильных сторон бренда требует поддержки от людей, которые не знакомы с маркетинговыми исследованиями и вряд ли будут их искать.

Коллапс трафика происходит поэтапно.

Представьте, что вы говорите издателю о том, что трафик на их веб-сайте упал на 42% и советуете им улучшить общую структуру веб-сайта. Это похоже на предложение кому-то починить дренаж, пока их дом уже затоплен – технически верно, но не полезный ответ в данный момент. Это подчеркивает проблему, не предлагая немедленной помощи.

Джоно это понимает, и это достойно восхищения. Когда у него спросили, как на самом деле воплотить его идеи в жизнь, он был прямолинеен: либо расширить определение SEO, включив в него эти задачи, либо разобраться с внутренними проблемами сотрудничества с командами, которые уже этим занимаются. Он признал, что это повлечет за собой ‘много организационной политики’, простое наблюдение, основанное на личном опыте.

Что на самом деле сломалось

Сосредоточиваться на том, как мы измеряем вещи, — значит упускать суть. Соглашение об онлайн-трафике было не просто цифрой; оно было основой для того, как контент создается и финансируется во всем интернете.

На протяжении двух десятилетий Google и издатели поддерживали взаимовыгодный цикл. Google нуждался в контенте для заполнения результатов поиска, а издателям нужен был Google для привлечения трафика на их сайты, чтобы они могли зарабатывать деньги. Создание ценного контента привлекало трафик Google, который издатели затем превращали в доход, позволяя им создавать еще больше контента. Хотя все описывали это как партнерство, по сути это была зависимость друг от друга – ситуация, которая работала, пока обе стороны были прибыльными.

AI Overviews меняют способ поиска информации в сети. Google создает ответы, используя контент с различных веб-сайтов и отображает их непосредственно пользователю. Хотя это предоставляет пользователям быстрые ответы, это также означает, что они остаются на сайте Google — где Google показывает свою рекламу и отслеживает действия пользователей. Владельцы веб-сайтов получают ссылку на свой оригинальный контент в качестве цитаты, но очень немногие люди на нее нажимают, оставляя им лишь ощущение, что их бренд видят.

Как человек, который давно занимается созданием веб-сайтов, я не был удивлён, услышав, как Robby Stein из Google признался, что им действительно пришлось *обучать* свой поисковый ИИ ссылаться на исходные источники. Оказывается, добавление ссылок не было автоматическим – им пришлось специально запрограммировать это. Первичный инстинкт ИИ – просто извлекать информацию и отвечать на запрос напрямую. Отправлять трафик на веб-сайты, откуда эта информация *происходит*? Это то, что они добавили позже, почти как бы в качестве послесловия. Честно говоря, это многое объясняет о том, почему результаты поиска Google иногда кажутся такими, будто они представляют *ваш* контент как свой собственный.

Снижение трафика происходит неравномерно. Данные от Define показывают огромный рост – 103% – трафика к статьям с последними новостями на всех платформах Google, но трафик к постоянно актуальному, вечнозелёному контенту упал на 40%. Функция ‘TopMob’ кажется менее подверженной влиянию AI Overviews от Google, но вечнозелёный контент испытывает значительный удар. Этот тип контента – руководства, объяснения и справочные материалы – который традиционно обеспечивал SEO, именно то, что AI Overviews призваны суммировать и представлять напрямую, потенциально заменяя необходимость для пользователей переходить к оригинальным статьям.

Google решает, какая информация остаётся актуальной по мере изменений. Новости и обновления по-прежнему привлекают внимание, потому что они продолжаются и не могут быть легко обобщены. Однако, большая часть другого контента теперь просто используется для питания поисковой системы Google, и эта система не вознаграждает веб-сайты за предоставление этой базовой информации.

Если мы начнем измерять успех по тому, насколько хорошо мы ранжируемся по сравнению с конкурентами, а не только по трафику веб-сайта, SEO необходимо расширить свою направленность. Многие из ключевых факторов – такие как пользовательский опыт, узнаваемость бренда и солидная репутация – уже в значительной степени решаются командами разработки продукта, брендинга и маркетинга. Такие вещи, как бесперебойный пользовательский опыт, относятся к разработке продукта и UX-дизайну, а создание узнаваемости бренда требует инвестиций. Хорошая репутация зарабатывается со временем путем последовательного предоставления качественного продукта, а доказательство ценности вашего продукта сводится к простому наличию хорошего продукта. SEO-команды лучше всего подходят для управления техническими аспектами, такими как упрощение поиска сайта поисковыми системами, планирование контента и организация веб-сайта. Однако это лишь одна часть конкурентоспособности – это не вся картина.

SEO необходимо развиваться. Оно может либо стать ключевой частью общей бизнес-стратегии – что может означать объяснение маркетинговой команде, что SEO теперь влияет на брендинг из-за изменений в работе поисковых систем – либо сосредоточиться на том, чтобы быть технической основой, которая помогает компаниям выделяться в поисковых системах. Оба этих подхода лучше, чем просто обещать больше органического трафика, утверждение, которое со временем становится менее эффективным.

Возможно, мы отслеживали не то. Джоно убедительно доказывает, что фокусировка на кликах была не идеальной. Мы по сути оценивали пользовательский интерфейс и ошибочно называли его всей системой.

Честно говоря, я вижу огромный разрыв в том, как все подходят к этому сдвигу. Компании, отслеживающие подсказки, просто сосредоточены на блестящих новых данных, в то время как стратеги говорят о глобальных вещах, которые кажутся отдаленными годами. И даже не спрашивайте помощи у Google – они фундаментально изменили ситуацию и, похоже, больше заинтересованы в том, чтобы удерживать все *внутри* своей собственной экосистемы, чем в сотрудничестве с издателями. Это расстраивает, потому что компаниям, занимающимся ИИ, *нужно* качественный контент для функционирования, но они не придумали устойчивый способ реально за него платить. Мы все суетимся, и никто, похоже, не соединяет точки, чтобы построить реальный план на будущее.

У каждого есть основа. Ни у кого нет ответа.

Клики не засчитывались. Но что-то должно. Вскоре.

Смотрите также

2026-03-25 16:41

Google добавляет свойства для разметки дискуссионного форума & страницы вопросов и ответов & документов теги robots вне HTML head.

Google недавно обновил свою документацию для SEO-разработчиков. Изменения включают в себя уточнение того, как Google обрабатывает мета-теги robots, размещенные за пределами стандартного раздела веб-страницы, и расширение поддерживаемых свойств для разметки схем Discussion Forum и QA Page.

(1) Google обновила документацию по мета-тегам robots, добавив:

Примечание: Google Search не требует обязательного размещения meta robots в HTML head и будет учитывать meta теги robots в разделе body HTML-документа также.

Google заявил, что ‘поведение не изменилось, но ранее не было задокументировано’.

(2) Google также добавил новые поддерживаемые свойства для разметки Discussion Forum и QA Page.

Я попытался сравнить предыдущие и текущие версии документов, но в тот момент Wayback Machine не работал. Однако, вы можете просмотреть различия самостоятельно, если хотите.

Google недавно обновил свои системы, чтобы лучше понимать, как организованы комментарии в интернете. Это помогает предотвратить ошибки при обработке контента с форумов и сайтов вопросов и ответов.

Смотрите также

2026-03-25 16:15