Google AI Mode Goes Personal, Crawl Limits Clarified – SEO Pulse

Вот что нового на этой неделе: мы освещаем изменения в том, как Google настраивает свой AI Mode, рассматриваем поведение Googlebot при сканировании и представляем свежие данные о том, как люди кликают по результатам, основанным на искусственном интеллекте, и как это влияет на трафик веб-сайтов.

Вот что имеет значение для вас и вашей работы.

Google Personal Intelligence Теперь Бесплатно Для Пользователей США

Google теперь предлагает свою функцию Personal Intelligence всем пользователям бесплатных аккаунтов Google в США. Ранее доступная только для платных подписчиков AI Pro и Ultra, эта функция связывает ваш Gmail и Google Photos с её возможностями искусственного интеллекта.

Вот что вам нужно знать: Режим ИИ теперь доступен! Он разворачивается с приложением Gemini и в Chrome. Когда вы его включите, режим ИИ может использовать информацию из ваших электронных писем (например, подтверждения), планы поездок и даже ваши фотографии, чтобы давать вам более полезные и персонализированные ответы. В настоящее время он доступен только в США и пока не работает с учетными записями Workspace.

Почему это важно

Предложение режима ИИ как для платных, так и для бесплатных пользователей значительно расширяет круг людей, которые могут получить доступ к персонализированным результатам. Поскольку ответы могут варьироваться в зависимости от контента Gmail пользователя, становится сложно сравнивать то, что отображает режим ИИ для конкретных поисков. По сути, каждый может видеть что-то другое, что затрудняет последовательную оценку.

Google раскрывает, что лимиты обхода Googlebot являются гибкими.

Гэри Ильес и Мартин Сплитт из Google недавно объяснили, что ограничения на частоту, с которой Googlebot сканирует веб-сайты, не такие строгие, как многие полагают. Цифры, которые часто публикуются, не являются фиксированными.

Google обычно заявляет, что его веб-краулеры могут обрабатывать страницы размером до 15 мегабайт, но они фактически могут обрабатывать более крупные страницы при необходимости. В реальности, Google Search часто работает с лимитом около 2 мегабайт. Эти лимиты не фиксированы и могут меняться в зависимости от конкретного контента, который сканируется, и причины сканирования.

Почему это важно

На протяжении многих лет SEO-специалисты рекомендовали поддерживать размер веб-страниц менее 15 МБ. Недавняя информация от Google Search уточняет это, предлагая более практичный предел в 2 МБ. Хотя большинство страниц уже намного меньше этих размеров, веб-сайтам с большим количеством скриптов, большим объемом данных или встроенными видео или изображениями, возможно, стоит обратить на это внимание.

AI Overviews снизили CTR органической позиции №1 в Германии на 59%.

SISTRIX изучил более 100 миллионов немецких поисковых запросов и обнаружил, что AI Overviews от Google снизили количество кликов по верхнему результату поиска с 27% до 11%.

Ключевые факты: AI Overviews появляются примерно на 20% немецких ключевых слов, по сравнению с 17% в августе. SISTRIX оценивает общие потери в 265 миллионов органических кликов в месяц по всему немецкому рынку. В среднем по всем ключевым словам, включая те, для которых нет AIOs, это составляет потерю кликов в 6.6%.

Почему это важно

Немецкие данные показывают схожую тенденцию с тем, что мы наблюдали в США. Когда появляется AI-обзор, первый результат поиска теряет более половины своих кликов, особенно для контента, который предоставляет информацию. Это указывает на то, что это не проблема, специфичная для США, и закономерность сохраняется в других местах.

Что говорят люди

Барри Адамс, основатель Polemic Digital, написал в LinkedIn:

Ссылки внутри контента, сгенерированного искусственным интеллектом, неэффективны, потому что люди обычно на них не нажимают. Чтобы продолжать добиваться успеха в Google, вам необходимо предоставлять контент, который ИИ не может легко создать. Для новостных издателей быстрая публикация последних новостей — надежный способ выделиться.

Поиск реферального трафика упал на 60% для небольших издателей.

Chartbeat недавно опубликовала данные, показывающие, как потери поискового трафика варьируются в зависимости от размера издателя. В отличие от предыдущих отчетов, рассматривавших всех издателей вместе, эти новые данные предоставляют более подробную разбивку.

Как SEO-эксперт, я отслеживаю тревожную тенденцию: поисковый трафик из Google снижается для издателей. За последние два года я видел, как небольшие издатели понесли самые большие потери, потеряв около 60% своего реферального трафика из поиска. Издатели среднего размера не сильно лучше, снизившись на 47%, и даже крупные издатели испытали падение на 22%. Это касается не только обычного поиска – рефералы из Google Discover также снизились на 15%. Хорошая новость в том, что более крупные издатели умудряются компенсировать часть этой утраченной территории, уделяя внимание прямому трафику, создавая свои списки рассылки и привлекая трафик через свои приложения. Но это явный сигнал о том, что полагаться исключительно на поиск становится все более рискованно.

Почему это важно

В то время как перенаправления ChatGPT более чем утроились, они все еще составляют менее 1% от общего трафика на веб-сайты издателей. Этот рост значителен, но пока не компенсирует снижение трафика из поисковых систем. В настоящее время трафик от чат-ботов недостаточно велик, чтобы покрыть эти потери.

Что говорят люди

Стивен Вальдман, создатель Rebuild Local News и Report for America, подчеркнул значимость этих данных в посте в LinkedIn. Он объяснил, что более крупные новостные организации лучше защищены, потому что люди уже знают и доверяют их брендам, и потому что они разработали способы прямого взаимодействия с читателями.

Лейн Брюс, исполнительный директор Ассоциации прессы штата Миссисипи, написал в LinkedIn:

Каждую неделю мы видим захватывающие новые технологии, которые приносят нам пользу, но эти достижения также представляют риск для систем, которые фактически создают и распространяют информацию.

Тема Недели: Общие Бенчмарки Становятся Менее Полезными

Истории на этой неделе подчеркивают, как значение чисел может меняться в зависимости от того, как они используются.

Мы наблюдаем аналогичное падение количества кликов для AI Overview (AIO) в Германии, как и в США. Также, ограничение в 15MB при сканировании на самом деле не является жёстким лимитом в 15MB. Наконец, поскольку Personal Intelligence адаптирует результаты AI Mode к каждому пользователю, то, что видит человек при поиске, зависит от того, какие сервисы Google он привязал к своей учётной записи.

Отчёты этой недели показывают, что данные наиболее ценны, когда они рассматриваются в контексте вашей конкретной отрасли, размера веб-сайта и целевой аудитории.

Смотрите также

2026-03-20 15:40

Инструменты для создания рекламы Google расширяются, Microsoft упрощает ставки – PPC Pulse

Вот ваш еженедельный PPC Pulse! На этой неделе мы освещаем новые возможности для креативов в Google Ads и изменения в работе ставок в Microsoft Ads.

Google Ads теперь предлагает рекламодателям последнюю версию Nano Banana Pro. Кроме того, маркетологи заметили, что Google расширил свой Creative Toolkit в рамках платформы. На Microsoft Ads упростили настройку нескольких автоматических стратегий назначения ставок.

Вот что произошло на этой неделе и почему это важно для рекламодателей.

Nano Banana Pro Version Теперь Доступна в Google Ads

Последняя версия Nano Banana Pro, впервые представленная в ноябре 2025 года, теперь доступна в качестве бесплатного инструмента в Google Ads. Рекламодателям было сообщено об этом по электронной почте на этой неделе.

Теперь, когда это в Google Ads, рекламодатели могут делать все это на одной платформе:

  • Создавайте новые визуальные эффекты, используя подсказки.
  • Редактируйте существующие ресурсы в разговорном стиле.
  • Создавайте многопродуктовые сцены
  • Создавайте более детализированные и фотореалистичные изображения.

Вот как это выглядит, когда вы переходите к Asset Studio в Google Ads.

Почему это важно для рекламодателей

Как цифровой маркетолог, я обнаружил, что интеграция Nano Banana Pro напрямую с Google Ads действительно оптимизирует мой рабочий процесс. Это устраняет множество повторных действий между созданием рекламного текста и фактическим запуском кампаний, делая весь процесс намного более плавным и быстрым.

Для рекламодателей, которым нужен больший контроль над своей рекламой, процесс создания теперь интегрирован с оптимизацией. Вместо обновления дизайна рекламы большими группами сразу, они могут быстро создавать и тестировать новые версии, основываясь на том, насколько хорошо работает реклама.

Кроме того, стоимость не будет проблемой. Предложение этого непосредственно в Google Ads делает его доступным для рекламодателей, которые, возможно, не смогли бы позволить себе отдельные инструменты для создания креативов или AI-сервисы.

Как цифровой маркетолог, я заметил значительный акцент со стороны Google в этом квартале на реальное увеличение *количества* креативных материалов, которые мы используем. Что здорово, так это то, что это легко масштабируется – мы можем быстро увеличить производство и протестировать гораздо больше вариантов. Мой представитель Google особенно сосредоточен на этом, и я видел это своими глазами.

Поскольку этот инструмент упрощает создание ресурсов, пользователи, вероятно, будут экспериментировать с более широким спектром опций.

Несмотря на то, что ИИ может создавать контент, брендам всё ещё необходимо его проверять, чтобы убедиться, что он соответствует их правилам стиля, является факти́чески корректным и соответствует правовым стандартам.

Google расширяет набор инструментов для творчества внутри Google Ads

Bia Camargo поделилась интересным обновлением в LinkedIn относительно креативных материалов в Google Ads, потенциально намекая на предстоящие изменения.

Недавно Google объявила, что рекламодатели теперь могут использовать более широкий спектр бесплатных изображений, видео и других креативных ресурсов, принадлежащих Google, непосредственно в своих кампаниях Google Ads. Это включает в себя фотографии, видео, значки, 3D-графику и текст.

Цель, похоже, состоит в том, чтобы предоставить рекламодателям возможность создавать более привлекательную рекламу непосредственно на платформе, вместо необходимости использования отдельных инструментов. Пока неясно, связана ли эта перемена конкретно с выпуском Nano Banana Pro в Google Ads.

Почему это важно для рекламодателей

Это обновление продолжает усилия Google по переносу большей части рабочего процесса кампании в Google Ads.

Это помогает рекламодателям быстро тестировать новые идеи для рекламы и запускать их, сокращая время, необходимое для улучшения их кампаний.

Что говорят специалисты по PPC

Подавляющее большинство людей отреагировали на изменение положительно. Брайан Ласонд описал это как явный успех, а Вирджил Брюстер с энтузиазмом сказал: ‘Как это круто? Давайте начнем!’

Брайан Шу представил интересную точку зрения относительно влияния творческого производства на платформе:

Это изменение ощущается как нечто большее, чем простое облегчение работы для креаторов. Когда производство рекламы происходит непосредственно в рамках платформы, система начинает иметь больше контроля над данными, используемыми для запуска кампаний. Хотя более быстрое тестирование является очевидным преимуществом, это также размывает грань между созданием рекламы и оптимизацией её эффективности на платформе.

Microsoft Ads упрощает настройку автоматических ставок.

Microsoft Advertising недавно изменила способ работы автоматических ставок при создании новых кампаний.

Теперь вы можете выбрать Целевую цену за конверсию (CPA) или Целевую рентабельность инвестиций в рекламу (ROAS) в качестве дополнительных целей при использовании стратегий назначения ставок, предназначенных для получения конверсий.

  • Выберите Максимизировать конверсии и опционально установите tCPA
  • Выберите Значение конверсии и, при желании, установите tROAS.

Microsoft заявила, что текущие рекламные кампании с использованием целевой стоимости привлечения (tCPA) или целевой рентабельности рекламных расходов (tROAS) будут продолжать работать как обычно, и общие стратегии назначения ставок для портфеля не будут затронуты.

Microsoft представляет это как способ упростить настройку ставок, а не как изменение принципа их работы.

Это было первоначально объявлено в прошлом году, но запуск на этой неделе делает его доступным для всех рекламодателей по всему миру.

Почему это важно для рекламодателей

Как вебмастер, который видел множество настроек кампаний, могу сказать вам, что это обновление не влияет на *то*, как ваши кампании учатся и улучшаются со временем. То, что оно *изменяет*, — это процесс, который вы проходите при первоначальной настройке всего. Это изменение закулисных механизмов принятия решений во время настройки, но оно не нарушит ваши существующие стратегии оптимизации.

Выбор стратегии ставок теперь стал более оптимизированным. Вместо множества вариантов на выбор, рекламодателям предлагается несколько ключевых вариантов с возможностью установки конкретных целей для своих кампаний.

Это смещает акцент на то, как устанавливаются и корректируются цели с течением времени.

Для рекламодателей, внимательно отслеживающих эффективность, это подчёркивает важность:

  • Установка реалистичных целевых показателей CPA или ROAS на основе фактической производительности.
  • Предоставление достаточного времени для стабилизации кампаний перед корректировкой целей.
  • Избегание чрезмерно жестких ограничений на ранних этапах жизненного цикла кампании.

Тема недели: Меньше трений при настройке, больше ответственности при исполнении.

Обновления этой недели охватывают две области настройки кампаний, и оба момента ускорят и упростят воплощение ваших идей в жизнь.

Google предоставил рекламодателям больше инструментов в своей платформе, включив дополнительные готовые визуальные элементы и сделав Nano Banana Pro доступным непосредственно в Google Ads.

Microsoft упростил способ применения ставок в новых кампаниях, реструктурировав способ установки таргетингов.

Оба подхода направлены на то, чтобы упростить задачу, но рекламодателям необходимо более тщательно планировать и готовиться заранее.

Смотрите также

2026-03-20 14:40

Google расширяет UCP корзиной, каталогом и адаптацией.

Это первое обновление UCP с момента представления Google протокола в январе на NRF. Функции Cart и Catalog в настоящее время доступны в качестве черновиков, а Identity Linking был завершен и выпущен в качестве стабильной версии.

Что делают новые возможности

Дополнения расширяют возможности ИИ-агентов в рамках торговых возможностей на базе UCP.

Как специалист по цифровому маркетингу, я много работаю с ‘Carts’. По сути, они позволяют клиентам добавлять и сохранять несколько товаров из магазина, как виртуальную корзину для покупок. Представьте себе это как способ для покупателей изучить варианты *перед* тем, как они что-либо купят. Речь идет о том, чтобы позволить им создать свой идеальный выбор, а затем легко преобразовать эту ‘Cart’ в процесс оформления заказа, когда они будут готовы завершить покупку. Это ключевая часть пользовательского опыта и помогает направлять клиентов на протяжении всего процесса покупки.

Как вебмастер, я обнаружил, что функция Catalog невероятно полезна. Она позволяет нашим агентам мгновенно получать актуальную информацию о продуктах – например, различные размеры и цвета, текущие цены и наличие товара на складе – непосредственно от розничного продавца. Мы можем либо искать продукты, либо находить их напрямую, если у нас есть ID продукта, что делает все очень эффективным.

Как цифровой маркетолог, я рад недавнему обновлению, которое действительно улучшает то, как мы обрабатываем обнаружение продуктов. Ранее мы были ограничены использованием товарных лент, но теперь наши агенты могут фактически запрашивать данные из живого каталога напрямую. Это означает, что мы можем предоставить гораздо более точную и актуальную информацию о продуктах клиентам – большой шаг вперед!

Identity Linking позволяет покупателям связывать свои учётные записи из разных магазинов с платформами, работающими на UCP, используя безопасный метод под названием OAuth 2.0. Это означает, что вознаграждения, такие как скидки по программе лояльности, цены для участников или бесплатная доставка, по-прежнему могут применяться, даже если покупатель использует AI Mode или Gemini для совершения покупки, вместо того, чтобы покупать напрямую на веб-сайте магазина.

Связывание учётных записей изначально было включено в первоначальный дизайн UCP. Google недавно объявила о нём, а также о функциях Корзины и Каталога, как об опциях, доступных пользователям UCP.

Все три возможности являются необязательными. Продавцы выбирают, какие из них поддерживать.

Merchant Center Onboarding

Google также объявила, что упрощает присоединение ритейлеров к Universal Checkout (UCP) через Merchant Center. Они стремятся привлечь предприятия любого размера и планируют запустить улучшенный процесс в ближайшие несколько месяцев.

Центр продавцов Google сообщает, что функция оформления покупок в магазине всё ещё тестируется с ограниченным числом розничных продавцов. Заинтересованные продавцы могут подать заявку через форму. Важно отметить, что кнопка оформления заказа будет отображаться только в списках продуктов, которые используют конкретный атрибут продукта ‘native_commerce’.

Commerce Inc., Salesforce и Stripe объявили о начале использования UCP. Google сообщает, что его версия будет доступна в ближайшее время, и ожидается, что другие компании последуют их примеру.

Если розничные продавцы напрямую не подключаются к системе UCP, эти поставщики могут предложить поддержку, которая облегчит участие, снижая потребность в сложной технической работе.

Почему это важно

Теперь ритейлеры, у которых нет собственных технических команд, могут легко подключиться к Merchant Center и использовать сторонние платформы, устраняя необходимость в сложных пользовательских интеграциях.

Функции Корзины и Каталога расширили возможности UCP. Изначально UCP обрабатывал только покупки отдельных товаров. Теперь агенты могут создавать корзины с несколькими товарами и получать информацию о продуктах в режиме реального времени. Это развитие приближает UCP к предложению полного опыта покупок в AI-платформах Google.

Ритейлеры по-прежнему сталкиваются с теми же проблемами, которые мы обсуждали в январе. Покупки совершаются через Google, а не на собственных веб-сайтах ритейлеров. Функция Identity Linking от Google предлагает потенциальные преимущества для программ лояльности, которые некоторые ритейлеры могут приветствовать, в то время как другие могут беспокоиться о том, что это снижает стимул для клиентов совершать покупки напрямую на их сайтах.

Заглядывая в будущее

Google объявила о добавлении функций, позволяющих пользователям сравнивать продукты напрямую в результатах поиска с использованием искусственного интеллекта, в приложении Gemini и на других платформах. Хотя они и не назвали точную дату, Google сообщает, что эти функции будут доступны в Merchant Center в течение следующих нескольких месяцев.

Смотрите также

2026-03-19 19:09

Контентный ров мертв. Ров контекста – вот что выживает.

Представьте, что кто-то задает ChatGPT вопрос, на который ваша библиотека могла бы ответить идеально, но в ответе упоминается конкурент. Это происходит не потому, что ответ конкурента лучше, а потому, что они опубликовали уникальные данные, которые ChatGPT не смог найти нигде больше. Ваша информация была точной, но у конкурента было что-то незаменимое. Теперь именно это различие определяет, кому будет засчитано, а кому нет.

Проблема суммаризации теперь является проблемой контент-стратегии.

Современный ИИ может мгновенно суммировать объёмный контент – например, руководство объёмом в 3000 слов – всего в три предложения. Это меняет наше представление о ценном контенте. Если ИИ может полностью заменить ваш контент его кратким изложением, у вас нет конкурентного преимущества. Краткое изложение, а не ваш оригинальный контент, становится тем, что люди ценят, и ваша страница просто предоставляет информацию, использованную для создания этого краткого изложения, прежде чем быть проигнорированной.

Мы уже видим, как ИИ меняет то, как мы взаимодействуем с информацией в сети. Например, Gmail использует ИИ для суммирования маркетинговых писем, а AI Overviews от Google предоставляют ответы прямо на странице поиска, над обычными ссылками. Microsoft Copilot может даже обрабатывать покупки без необходимости посещения веб-сайта. Samsung планирует расширить свои AI-функции на гораздо больше устройств, что означает, что AI-powered summaries и рекомендации станут еще более распространенными в нашей повседневной жизни – намного более, чем сейчас.

Пространство между вашим контентом и вашей аудиторией растёт и становится всё более влиятельным. Когда этот посредник может предоставить ту же ценность, что и ваш контент, без необходимости посещения исходного источника, сам контент теряет свою ценность. Вместо этого, действительно важным становится всё то, что этот посредник *не может* воспроизвести.

Что такое контент Commodity на самом деле.

Давайте будем честны: многое из того, что маркетологи считают отличным контентом, на самом деле довольно стандартно. Хотя ясное изложение, точные факты и хорошая организация необходимы, их уже недостаточно. Это просто минимальные требования – как наличие веб-сайта, работающего на телефонах, несколько лет назад. Теперь, когда ИИ может легко создавать достойные резюме информации практически по любой теме, контент должен быть чем-то большим, чем просто правильным и хорошо написанным, чтобы по-настоящему выделиться.

The Context Moat Defined

Категории конкретны и заслуживают чёткого наименования:

  • Методология от первого лица и тематические исследования со всеми подробностями. Не «SaaS-компания улучшила удержание». Вместо этого: «Мы снизили отток клиентов с 8,2% до 4,1% за шесть месяцев, реструктурировав процесс адаптации вокруг трех конкретных вмешательств, и вот именно что мы сделали». Конкретика – это ров, потому что никто другой не присутствовал при принятии этих решений.
  • Оригинальное тестирование и эксперименты. Вы провели тест, контролировали переменные и измерили результат. Ни у кого больше нет этих данных, если вы не решите опубликовать их, что означает, что модель должна обратиться к вам или обойтись без них.

Почему это игра на повышение видимости в ИИ, а не просто стратегия контента.

Если вы следите за нашей публикацией, вам известно, что поиск на основе ИИ значительно отличается от традиционных методов поиска. Я ранее обсуждал, как системы ИИ выбирают лучшие результаты, разницу между тем, что люди считают релевантным, и тем, что модели считают полезным, и почему просто быть правильным недостаточно, чтобы что-то отображалось на видном месте. Концепция «контекстного рва» объединяет все эти идеи в ключевую стратегическую точку.

Первичные данные – это не просто настройка взаимодействия или запуск рекламы – это предоставление ИИ информации, необходимой для эффективной работы. Компании, которые обладают уникальными данными о своих клиентах и операциях, находятся в сильной позиции с ИИ, *если* они решат их использовать. В настоящее время большинство не делятся этими данными, и разница между тем, что компании *знают* и к чему ИИ может *получить доступ*, является местом, где кроются самые большие возможности.

Перераспределение инвестиций

Недавний опрос более чем 11 000 лидеров в области маркетинга показывает, что компании в настоящее время тратят около 11,2% своих бюджетов на цифровой маркетинг на сбор и использование собственных данных клиентов (first-party data), и планируют увеличить эту цифру до 15,8% к 2026 году. В целом, контент-маркетинг обычно получает от 25% до 30% от общего маркетингового бюджета, при этом более крупные компании особенно сосредотачиваются на таких вещах, как интерактивные возможности, видеоконтент и способы его распространения.

Проверьте контент своего веб-сайта, чтобы оценить его уязвимость к воздействию ИИ. Начните с ваших 50 самых популярных или важных страниц. Для каждой из них спросите себя: мог бы конкурент легко создать нечто очень похожее, используя только общедоступную информацию? Если ответ – да, этот контент легко заменить. Хотя сейчас он может работать, он не выдержит конкуренции с ИИ-обобщениями. Как только ИИ сможет предоставить ту же информацию без необходимости посещения вашей страницы, этот контент потеряет свою ценность.

Оцените свой контент. Если большая его часть (80%) является базовой и легко находится в других местах, в то время как лишь небольшая часть (20%) предлагает уникальные идеи или сильное конкурентное преимущество, ваша контент-стратегия не готова к тому, как ИИ повлияет на поиск и обнаружение.

Вам не нужно начинать с нуля; вам просто нужно сосредоточить свои ресурсы на создании уникального контента. Для большинства компаний это означает внесение четырех ключевых изменений:

  • Публикация внутренних данных, которые уже существуют, но не распространяются. Большинство организаций собирают гораздо больше собственных данных, чем когда-либо публикуют. Сравнительные показатели поведения клиентов, операционные метрики, отраслевые данные об эффективности и т.д. Команда исследователей владеет этими данными, команда продукта владеет этими данными, а отдел маркетинга еще не преобразовал их в опубликованный контент, который могут обнаружить и процитировать системы искусственного интеллекта.
  • Инвестирование в оригинальные исследования как в постоянное редакционное обязательство. Ежегодные опросы, квартальные показатели, продольные исследования. Они дороги в производстве и невозможны для копирования конкурентами, и это именно то, что требуется. Они создают постоянные цитатные зависимости, которые со временем усугубляются.

Существующее содержимое не бесполезно.

Давайте будем откровенны: называть базовый онлайн-контент «мусором» – это чрезмерная реакция. Этот тип контента по-прежнему играет важную роль – он помогает людям находить информацию, привлекает посетителей на веб-сайты, стимулирует продажи и формирует постоянное присутствие в сети для брендов.

Сильное конкурентное преимущество заключается не в наличии функций, которых нет у других, – а в создании прочной базы, которая необходима всем. Простого наличия чего-то уникального уже недостаточно, потому что конкуренты неизбежно разработают аналогичные основы.

Я не предлагаю полностью прекратить создание базового контента. Я говорю о том, что вам нужно перестать полагаться на этот тип контента, чтобы выделиться среди конкурентов. Это разные идеи – полное прекращение производства нереалистично для большинства предприятий, но перенос вашего фокуса и ресурсов – это разумный стратегический ход.

Как человек, который давно занимается созданием веб-сайтов, я заметил чёткую тенденцию с переходом к искусственному интеллекту в поиске. Речь не идёт о *замене* того, что мы уже знаем о SEO, а о построении *на основе* этого. Такие вещи, как техническое SEO и надёжная оптимизация на странице, по-прежнему имеют решающее значение, и весь ваш существующий контент по-прежнему важен. Однако этого недостаточно. То, что действительно имеет значение сейчас, — это построение того, что я называю «контекстным рвом» — по сути, глубокое понимание и удовлетворение потребностей вашей аудитории таким образом, который искусственный интеллект не может легко повторить. Речь идёт о добавлении этого дополнительного уровня опыта и релевантности.

Где это вас оставит.

Контент все больше разделяется на категории высокого и низкого качества, и эта тенденция ускоряется, поскольку ИИ теперь является тем, как большинство людей находят информацию в интернете.

Организации второго уровня создают контент, который хорошо написан, надежен и полезен. Этот контент может быть создан любой компетентной командой с использованием общедоступной информации. Хотя они помогают улучшить данные, используемые для генерации ответов, они не контролируют, как их информация появляется в этих ответах. По сути, они предоставляют исходный материал, а не готовый продукт.

Планируя свой следующий бюджет, не спрашивайте, создаете ли вы *достаточно* контента. Вместо этого сосредоточьтесь на том, создаете ли вы контент, который уникален для вашей организации – контент, которого нет ни у кого другого.

Настоящая безопасность теперь исходит от обладания уникальными знаниями, а не просто информацией как таковой. Речь идет о конкретном понимании, которое *вы* привносите.

Смотрите также

2026-03-19 16:40

Что данные файла журнала могут рассказать мне, чего не могут инструменты? – Спросите SEO-специалиста.

Для сегодняшнего Ask An SEO мы отвечаем на вопрос:

«Как SEO-специалисту, стоит ли мне использовать данные из лог-файлов, и что они могут рассказать мне, чего не могут инструменты?«

Что такое файлы журналов?

Файлы журналов — это, по сути, подробная запись всего, что происходит на веб-сайте. Сервер веб-сайта создает эти файлы, и они обычно содержат информацию о том, кто посетил – люди или автоматизированные боты, – какие страницы они просматривали и когда они это сделали.

Файлы журналов обычно записывают подробную информацию о взаимодействии с веб-сайтом, включая IP-адрес посетителя, то, что они используют для доступа к сайту (например, веб-браузер или бот поисковой системы), время посещения, конкретную просмотренную страницу (URL) и ответ сервера на их запрос.

Пример журнала:

6.249.65.1 - - [19/Feb/2026:14:32:10 +0000] "GET /category/shoes/running-shoes/ HTTP/1.1" 200 15432 "-" "Mozilla/5.0 (Macintosh; Intel Mac OS X 14_2) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/121.0.0.0 Safari/537.36" 
  • 6.249.65.1Это IP-адрес пользовательского агента, который посетил веб-сайт.
  • 19/Feb/2026:14:32:10 +0000 – Это метка времени попадания.
  • GET /category/shoes/running-shoes/ HTTP/1.1 – Метод HTTP, запрашиваемый URL и версия протокола.
  • 200 – Код статуса HTTP.
  • 15432 – Размер ответа в байтах.
  • Mozilla/5.0 (Macintosh; Intel Mac OS X 14_2) AppleWebKit/537.36 (KHTML, например Gecko) Chrome/121.0.0.0 Safari/537.36 – пользовательский агент (т. е. бот или браузер, запросивший файл)

Для чего можно использовать файлы журналов?

Журналы веб-сайта предоставляют наиболее точную запись о том, как посетители – будь то люди или автоматизированные боты – перемещаются по вашему сайту. Хотя они обычно считаются наиболее надежным источником информации о взаимодействии с веб-сайтом, такие факторы, как кэширование и настройка сервера, иногда могут делать журналы неполными.

Что сканируют поисковые системы.

Журналы файлов действительно полезны для SEO, потому что они показывают нам, какие именно страницы нашего веб-сайта посещают поисковые боты.

Журналы показывают нам, какие страницы посещают поисковые системы и как часто. Они помогают нам подтвердить, что наши важные страницы индексируются, и что страницы, которые часто меняются, проверяются чаще, чем страницы, которые остаются неизменными.

Как вебмастер, одно из первых, что я делаю при оптимизации сайта, – это проверка файлов журналов. Они бесценны для выявления ‘потери при сканировании’ – по сути, страниц, по которым боты поисковых систем заходят без необходимости. Это могут быть URL-адреса с множеством случайных символов или бесконечная постраничная навигация. Если я вижу, что боты тратят время на эти страницы вместо моего важного контента, я знаю, что мне нужно это исправить. Файлы журналов быстро показывают мне, что сканируется слишком часто, позволяя мне сосредоточиться на повышении эффективности сканирования моего сайта.

Эта информация может быть критически важной при выявлении проблем с обнаружением страниц и сканированием.

Истинное распределение бюджета ползучего поиска

Просмотр лог-файлов вашего веб-сайта — это надежный способ понять, как поисковые боты обходят его. Этот анализ показывает, какие страницы обходятся часто, а какие нет, помогая вам оптимизировать бюджет обхода вашего сайта.

Это важно для определения страниц, которые не связаны должным образом, или если поисковые системы отдают приоритет менее важным разделам сайта, а не более важным.

Файлы журналов могут быть полезны даже после завершения сложных SEO-задач. Например, после переноса веб-сайта на новый сервер проверка файлов журналов может показать, насколько быстро поисковые системы находят и индексируют обновлённый контент.

Вы можете использовать файлы журналов веб-сайта, чтобы узнать, помогли ли внесенные вами изменения в макет сайта поисковым системам более эффективно его сканировать.

Когда вы тестируете изменения на своём веб-сайте для SEO, важно проверить, действительно ли поисковые боты увидели эти изменения. Вы можете использовать файлы журналов, чтобы узнать, проиндексировали ли боты страницы, которые вы тестируете, что позволяет узнать, оценивается ли ваш тест.

Поведение при сканировании во время технических проблем

Журналы веб-сайта полезны для поиска технических проблем. Иногда инструмент, используемый для сканирования веб-сайта, может сообщать о статусе, отличном от того, который бот фактически испытывает при посещении страницы. Журналы — это единственный надежный способ подтвердить эти расхождения.

Журналы файлов помогают вам отслеживать, испытывают ли боты временные проблемы с веб-сайтом и как быстро они успешно возвращаются на эти страницы после устранения проблем.

Подтверждение бота

Анализ файлов журналов может помочь вам отличить легитимных ботов от тех, кто притворяется легитимными. Это крайне важно для определения, маскирует ли кто-то вредоносных ботов под поисковых роботов – таких как Googlebot или краулер Microsoft – чтобы обойти систему безопасности вашего сайта. Эти замаскированные боты могут пытаться украсть данные или выполнять другие вредоносные действия.

Анализ журналов веб-сайта помогает определить источник ботов, идентифицируя их IP-адреса. Это позволяет ИТ-командам сравнивать эти адреса со списками известных, легитимных ботов – таких как Googlebot – гарантируя, что они случайно не заблокируют поисковые системы, которые помогают с видимостью веб-сайта.

Обнаружение сиротских страниц

Файлы журналов помогают находить внутренние страницы, которые некоторые инструменты могут пропустить. Например, Google может найти страницу по ссылке с другого веб-сайта, но типичный инструмент сканирования может найти ее только в том случае, если на нее есть ссылка внутри вашего собственного сайта или она указана в карте сайта.

Проверка лог-файлов вашего веб-сайта может помочь вам найти страницы, о существовании которых вы не знали – их часто называют «сиротскими страницами». Лог-файлы также показывают старые URL-адреса, которые всё ещё сканируются, даже если они больше не должны быть доступны. Это могут быть устаревшие ссылки или части вашего сайта, которые не были правильно перемещены при обновлении контента.

Что другие инструменты не могут сказать нам, что могут файлы журналов.

Если вы ещё не анализируете файлы журналов, скорее всего, вы используете другие SEO-инструменты, чтобы попытаться понять трафик вашего веб-сайта – но файлы журналов могут предложить более полную картину.

Программное обеспечение для аналитики

Инструменты, такие как Google Analytics, могут показать вам все страницы на веб-сайте, даже если боты поисковых систем не могут до них добраться.

Как SEO-эксперт, я больше всего полагаюсь на веб-аналитику. Они действительно глубоко проникают в то, как пользователи *фактически* ведут себя на сайте. Это не просто о цифрах трафика – это помогает мне определить, какие страницы приносят результаты для бизнеса, и, что не менее важно, какие из них не справляются со своей задачей. Речь идет о понимании того, что работает, а что нужно улучшить, чтобы повысить конверсию.

Однако, эти инструменты не раскрывают подробности об автоматизированной активности. Большинство аналитических программ фактически удаляют данные от ботов и других нечеловеческих источников, фокусируясь исключительно на информации от реальных пользователей.

Эти инструменты помогают нам понять, как люди используют веб-сайт, но они не дают никакой информации о том, как поисковые боты по нему перемещаются. Мы не можем отследить, какие страницы посетил бот и как часто он это делает.

Google Search Console/Bing Webmaster Tools

Инструменты поисковых систем обычно показывают, насколько здоров ваш веб-сайт технически, указывая на такие вещи, как ошибки сканирования и когда страницы были проверены в последний раз. Но для более крупных веб-сайтов эти данные часто суммируются и основаны на выборках, поэтому бывает трудно получить подробную информацию об отдельных страницах.

Они делятся только деталями о своих ботах, что затрудняет получение полной картины активности ботов. Также сложно понять, как ведут себя боты от компаний, не имеющих инструментов, таких как поисковые консоли.

Веб-краулеры

Веб-краулеры могут имитировать, как боты поисковых систем исследуют ваш сайт, показывая, какие его части технически доступны. Однако, эти инструменты не раскрывают, к каким страницам бот *фактически* обращался. Они могут сообщить вам, можно ли было просканировать страницу, но не предоставляют никаких данных о том, посещал ли бот её, когда это делал, или как часто.

Веб-краулеры часто ведут себя как боты в соответствии с *вами* заданными условиями, что может не отражать то, как боты реальных поисковых систем фактически воспринимают сайт. Без серверных журналов трудно узнать, как поисковые системы будут перемещаться по веб-сайту во время проблем, таких как DDoS-атака или недоступность сервера.

Почему вы можете не использовать файлы журналов

Существует множество причин, по которым SEO-специалисты могут еще не использовать файлы журналов.

Сложность в их получении

Файлы журналов могут быть сложными для доступа. Возможно, вам потребуется обратиться за помощью к вашей команде разработчиков. Если вашей команды нет непосредственно с вами, вам может потребоваться сначала выяснить, кто на самом деле имеет доступ к этим файлам.

Потребности пользовательского интерфейса

Просто получение доступа к файлам журналов – это только первый шаг. Вам также нужно будет уметь интерпретировать то, что они показывают. Сырые файлы журналов – это, по сути, текстовые файлы, заполненные строками и строками данных.

Давайте будем честны, файлы журналов не отличаются удобством для пользователя. Как SEO-эксперт, я часто сталкиваюсь с необходимостью изучать их, и, честно говоря, вам обычно нужен специальный инструмент, чтобы понять все эти данные. Эти инструменты различаются по цене – некоторые позволяют загрузить файл и получить мгновенный анализ, в то время как другие подключаются непосредственно к вашим журналам для мониторинга в режиме реального времени. Лучший вариант зависит от того, как часто вам нужно анализировать ваши логи и какой глубины понимания вы ищете.

Требования к хранилищу

Также необходимо сохранять файлы журналов. Помимо проблем с безопасностью, таких как соответствие GDPR, они могут стать сложными для долгосрочного хранения из-за их быстро растущего размера.

Крупные интернет-магазины могут генерировать сотни гигабайт файлов журналов каждый месяц. Хранение такого объема данных представляет собой значительную техническую задачу. Хотя сжатие файлов помогает, часто необходимо анализировать журналы в течение нескольких месяцев для устранения неполадок или выявления тенденций. Такое долгосрочное хранение данных может быстро сделать хранение дорогим.

Воспринимаемая техническая сложность

После того, как вы преобразовали свои файлы журналов в читаемый и удобный формат, следующим шагом является определение того, как их анализировать.

Многие SEO-специалисты избегают использования лог-файлов, потому что они кажутся сложными. По сути, лог-файлы — это просто записи активности веб-сайта, и эти необработанные данные могут показаться пугающими для сортировки.

Должны ли SEO-специалисты использовать лог-файлы?

Да, если вы можете.

Некоторые важные открытия полностью зависят от информации, найденной в лог-файлах. Хотя ваши текущие инструменты могут помочь в расследованиях, они не предоставят полного понимания сами по себе.

Смотрите также

2026-03-19 15:42