Google AI показывает, что сайт не работает из-за доставки JS-контента.

Пользователь Reddit заметил, что Google утверждает, будто их веб-сайт был недоступен с 2026 года, и обвинил в этом ИИ Google. Джон Мюллер из Google быстро указал на то, что проблема была простой ошибкой.

Кто-то поделился ссылкой на свой пост в блоге на Reddit, обвинив Google и ИИ в проблеме. Это позволило Джону Мюллеру из Google посетить сайт, быстро обнаружить, что проблема была связана с тем, как использовался JavaScript, и объяснить, что Google не виноват.

Пользователь Reddit обвиняет ИИ Google.

Недавний пост в блоге на Reddit критикует Google, но его заголовок использует запутанную компьютерную терминологию, которая на самом деле неправильно определяет проблему.

Google может ошибочно полагать, что ваш веб-сайт недоступен. Это может произойти из-за того, как Google использует искусственный интеллект для сбора информации с различных страниц, и это может создать новые юридические риски для владельцев веб-сайтов.

Фразы ‘cross-page AI aggregation’ и ‘liability vectors’ кажутся необычными, поскольку это не стандартные термины, используемые в области компьютерных наук.

Функция ‘cross-page’, вероятно, относится к Query Fan-Out от Google. Это когда вопрос, который вы задаете в режиме AI от Google, фактически разбивается на несколько отдельных поисковых запросов, которые затем запускаются через обычный Google Search.

Термин «liability vectors» звучит технически, и это правда, что «vectors» — это концепция, используемая в SEO и обработке естественного языка. Однако «Liability Vector» не является фактическим термином в этих областях.

Пользователь Reddit написал в блоге, что не уверен, может ли Google определить, когда веб-сайт недоступен.

Я не знаю, чтобы у Google был какой-либо способ автоматически проверять, работают ли веб-сайты или нет. Кроме того, даже если бы у наших внутренних систем возникла проблема, Google не смог бы это узнать, поскольку для этих систем требуется вход в систему.

Кажется, автор не до конца понимает, как работают системы, такие как RAG или Query Fan-Out, или как на самом деле работает ИИ от Google. Они, похоже, удивлены тем, что Google использует актуальную информацию, а не полагается исключительно на знания, которые ИИ получил во время первоначального обучения.

Текст относится к веб-сайту, который что-то утверждает, а не к людям, говорящим это напрямую. Однако, с развитием AI языковых моделей, эта разница в источнике может быть уже не такой важной.

В тексте конкретно указана целевая дата – начало 2026 года. Поскольку веб-сайт был запущен только в середине 2025 года, это подразумевает, что информация от Google довольно свежая – хотя, как всегда, важно помнить, что в работе большие языковые модели!

Ниже в посте пользователь Reddit фактически признался, что так же озадачен, как и все остальные, почему Google сообщает, что сайт находится в автономном режиме. Они действительно не имели ни малейшего представления о том, что вызывает проблему, что, честно говоря, я могу понять – иногда это просто полная загадка!

Команда пошла на риск и удалила всплывающее окно, надеясь, что это исправит проблему. Они не были уверены, что всплывающее окно было фактической причиной, и это подчеркивает, насколько важно выявить первопричину проблемы, прежде чем пытаться ее исправить. Внесение изменений, не зная реальной проблемы, может быть рискованным.

Недавно пользователь Reddit признался, что не уверен, как Google создает эти сводные блоки при поиске веб-сайта. Его беспокоит, что Google может извлечь неточную или несвязанную информацию и отобразить ее как прямой ответ.

«…мы не знаем, как именно Google собирает смесь страниц, которые он использует для генерации ответов LLM.

Это проблематично, потому что все, что находится на ваших веб-страницах, теперь может влиять на несвязанные ответы.

…AI от Google может захватить все это и представить это как ответ.»

Я не виню автора за незнание того, как работает поисковая система с искусственным интеллектом от Google – это не общеизвестная информация. Понятно, почему кто-то может подумать, что это искусственный интеллект, который фактически отвечает на запросы.

Поиск на основе искусственного интеллекта работает путем объединения традиционных методов поиска с искусственным интеллектом. Он находит информацию в сети, а затем использует ИИ для ее обобщения и представления в виде четкого, разговорного ответа – аналогично тому, как человек исследует тему и объясняет ее вам.

Джон Мюллер из Google объясняет, что происходит.

Мюллер ответил на пост Reddit спокойным и уважительным объяснением того, где пользователь допустил ошибку в своей настройке.

Как вебмастер, я часто сталкиваюсь с этой проблемой. Кто-то недавно указал мне на важную вещь относительно моего сайта – я использовал JavaScript для переключения текста с ‘нет в наличии’ на ‘в наличии’ в зависимости от определенного условия. Они справедливо предложили просто загружать правильный текст – будь то ‘в наличии’ или ‘нет в наличии’ – напрямую из JavaScript. Таким образом, если у пользователя отключен JavaScript, он не увидит вводящую в заблуждение информацию о доступности. Это простое изменение, но оно имеет большое значение для доступности и надежности.

Это похоже на совет Google не использовать JavaScript для изменения robots meta тега с ‘noindex’ на что-либо другое – что угодно, на самом деле, поскольку для этого тега на самом деле нет настройки ‘index’. Они говорят, что вы можете быть гибкими в том, что туда помещаете.

Сайт использует JavaScript для замены временного текста-заполнителя на фактическое содержимое при загрузке страницы. Однако, это работает только в том случае, если веб-браузер посетителя настроен на выполнение JavaScript.

Итак, вот что произошло с точки зрения SEO: Google проиндексировал текст-заполнитель, который временно отображался на странице. По сути, вместо того, чтобы видеть окончательный, предназначенный контент, Google прочитал это первоначальное сообщение ‘недоступно’ *как* фактическое содержимое страницы. Именно поэтому так важно убедиться, что Googlebot может сразу получить доступ к реальному контенту – иначе он может проиндексировать что-то совершенно непреднамеренное!

Мюллер рекомендует включать всю необходимую информацию непосредственно в исходный HTML-код веб-страницы. Это гарантирует, что и посетители сайта, и поисковые системы видят одно и то же содержание, что является наиболее надежным методом.

Основные выводы

Эта ситуация подчеркивает несколько важных моментов, помимо просто технической проблемы, с которой столкнулся человек на Reddit. Самый главный вывод заключается в том, что они попытались решить её методом проб и ошибок, вместо того чтобы понять первопричину.

Команда не имела чёткого понимания того, как работают поисковые функции искусственного интеллекта Google, что привело к нескольким неверным предположениям при попытке найти проблему. В результате, их предпринятое решение было по сути лишь догадкой о первопричине.

При решении SEO-задач часто приходится полагаться на обоснованные предположения, поскольку факторы ранжирования Google не всегда прозрачны. Однако иногда эти предположения возникают не из-за недостатка информации от Google, а скорее из-за пробела в нашем собственном SEO-понимании. Это говорит о необходимости дальнейшего исследования и тестирования, чтобы точно определить реальную проблему.

Смотрите также

2026-02-14 03:10

Команда по связям с поисковыми системами Google обсуждает, нужен ли вам по-прежнему веб-сайт.

Недавно я увидел вопрос, заданный команде по связям с поисковыми системами Google: будут ли веб-сайты вообще *необходимы* к 2026 году? Их ответ не был простым «да» или «нет». Похоже, ответ зависит от множества факторов, и единого правила для всех не существует.

Обсуждение сосредоточилось на преимуществах и недостатках наличия собственного веб-сайта по сравнению с использованием таких платформ, как социальные сети или магазины приложений.

В последнем подкасте Search Off the Record, Гэри Ильес и Мартин Сплитт из Google обсуждали вопрос около 28 минут и постоянно приходили к выводу, что ответ не является однозначным — он действительно зависит от конкретной ситуации.

Что было сказано

По словам Illyes и Splitt, веб-сайты по-прежнему ценны, поскольку они предлагают такие преимущества, как контроль над данными, способы получения прибыли, возможность предоставления интерактивных функций и независимость от правил социальных медиа-платформ.

Оба сотрудника Google также подчеркнули ситуации, когда веб-сайт может быть не нужен.

Google’s Illyes упомянул исследование, проведённое примерно в 2015-2016 годах в Индонезии, которое показало, что некоторые предприятия процветали, используя только социальные сети – не имея собственных веб-сайтов. Эти предприятия наблюдали удивительно высокие объёмы продаж, положительный клиентский опыт и удерживали клиентов.

Я видел несколько невероятных историй успеха в мире мобильных игр. Что действительно поразило меня, так это то, что Джон Мюллер и я обсуждали с разработчиком – они построили многомиллионный, даже миллиардный бизнес с мобильными играми, и, честно говоря, всё их присутствие в сети заключалось в основном в нескольких юридических страницах. Это действительно подчеркнуло, как многого можно достичь, не нуждаясь в сложном веб-сайте в наши дни.

Illyes привёл личный пример:

Я использую группы WhatsApp, чтобы общаться с людьми, до которых мне нужно достучаться, потому что именно там они находятся, и я знаю, что могу постоянно привлекать их внимание. Я не думал о создании веб-сайта, и честно говоря, я не уверен, для чего бы я его использовал.

Splitt затронул вопросы доверия и презентации, сказав:

Как SEO-эксперт, я всегда говорю своим клиентам, что сильное, заслуживающее доверия присутствие в социальных сетях часто более ценно, чем плохо реализованный веб-сайт. Люди устанавливают связь с подлинностью, и хорошо поддерживаемый профиль в социальных сетях укрепляет это доверие гораздо эффективнее, чем блестящий веб-сайт, который не обеспечивает хороший пользовательский опыт. Я уделяю приоритетное внимание построению этой социальной достоверности, потому что она напрямую влияет на восприятие бренда и, в конечном итоге, на позиции в поисковой выдаче.

На прямой вопрос о четком ответе, Ильес предположил, что, хотя это его личное мнение, веб-сайт, вероятно, по-прежнему является лучшим способом охватить самую широкую аудиторию в 2026 году. Он подчеркнул, что это не официальная рекомендация, а лишь его мнение.

Почему это важно

В то время как Поиск Google работает, исследуя и организуя информацию с веб-сайтов, Google по-прежнему представляет наличие веб-сайта как выбор, который компании делают, исходя из того, чего они хотят достичь и до кого они пытаются достучаться.

Как эксперт по SEO, я внимательно следил за дискуссией о будущем веб-сайтов, и, честно говоря, меня удивляет, насколько мало убедительных аргументов было в пользу того, что *каждому* бизнесу все еще нужен веб-сайт к 2026 году. Никто толком не отстаивал уникальную ценность открытого веба. Лучшим аргументом, который кто-либо смог привести, было то, что веб-сайты по-прежнему являются относительно простым способом распространения информации, и что интернет никуда не денется. Честно говоря, это показалось мне довольно вялой защитой.

Это соответствует тому, что наблюдает Search Engine Journal: люди теперь находят информацию во многих местах, а не только через традиционные поисковые системы. Они используют AI-чат-ботов, социальные сети и онлайн-сообщества как часть своего исследовательского процесса.

Заглядывая в будущее

Подкаст The Search Off the Record часто делился информацией от команды Search Relations, которая была раскрыта до того, как она стала официальными объявлениями.

В этом эпизоде не было объявлено никаких новых правил или рекомендаций. Однако открытость команды Search Relations к одобрению компаний, которые работают исключительно в социальных сетях или через приложения, показывает, что веб-сайты становятся менее центральными, поскольку люди находят информацию на множестве различных платформ.

Важно тщательно это обдумать. Если команда Search Relations представляет владение веб-сайтом как полезную вещь в определенных случаях, а не как необходимость, то польза от их услуги будет зависеть от того, как это применимо к каждой конкретной ситуации, а не от идеи, что всем компаниям это требуется.

Смотрите также

2026-02-13 17:39

Отслеживание цитирования Bing AI, скрытые домашние страницы и страницы HTTP подпадают под лимит сканирования – SEO Pulse

Этот выпуск SEO Pulse приносит вам обновления об отслеживании того, насколько хорошо ранжируется контент, созданный ИИ, потенциальную проблему, когда ‘призрачные страницы’ могут навредить присутствию вашего сайта в поисковой выдаче, и новую информацию о том, как Googlebot может обрабатывать файлы при сканировании вашего сайта.

Вот что имеет значение для вас и вашей работы.

Инструменты веб-мастера Bing добавляют панель управления AI Citation.

Microsoft запустила новую панель управления AI Performance в Bing Webmaster Tools. Эта панель управления позволяет владельцам веб-сайтов видеть, как часто их контент используется в Microsoft Copilot и других результатах поиска на основе искусственного интеллекта. В настоящее время она доступна для публичного тестирования.

Эта панель управления предоставляет важную информацию о том, как используется ваш контент. Она показывает общее количество цитирований, среднее количество страниц, цитируемых каждый день, и подробную статистику цитирования для каждой страницы. Она также отображает ‘grounding queries’, то есть конкретные фразы, которые ИИ использовал для поиска вашего контента при создании ответов.

Почему это важно

Bing теперь показывает вам, как часто его ИИ ссылается на ваш веб-сайт на специальной панели управления. В то время как Google Search Console отслеживает, как функции ИИ, такие как Overviews, используют ваш контент в общих отчётах о производительности, он не предоставляет конкретной разбивки или подсчёта цитирований, как это делает Bing. Кроме того, Google’s AI Overviews в настоящее время отображает все связанные страницы как один результат, что затрудняет понимание того, как отдельные страницы работают в ответах на основе ИИ.

Инструменты отчетности Bing показывают не только, где упоминается ваш контент, но и как часто и какой конкретно текст привел к этим упоминаниям. Однако в настоящее время они не сообщают, действительно ли эти упоминания приводят людей на ваш веб-сайт — им не хватает данных о том, кликают ли люди по этим ссылкам.

Теперь вы можете видеть, какие страницы использует ИИ для генерации ответов и понимать, как он находит информацию. Однако, чтобы по-настоящему понять, как это влияет на ваш бизнес, вам необходимо объединить эту информацию со своими собственными данными и анализом.

Что говорят SEO-специалисты

Уилл Рейнольдс, основатель Seer Interactive, поделился своим восторгом по поводу новой функции в X (ранее Twitter), отметив ценные сведения, предоставляемые данными grounding queries.

Отличные новости! Bing теперь предоставляет «основополагающие запросы» в Bing Webmaster Tools. Я только что проверил это и сейчас работаю над тем, чтобы понять, что означают эти данные и как владельцам веб-сайтов лучше всего их использовать.

Корай Тугберк ГЮБЮР, основатель Holistic SEO & Digital, поделился прямым сравнением с инструментами Google в X (ранее Twitter).

Инструменты вебмастера Bing последовательно были лучше и проще в использовании, чем Google Search Console, и Microsoft вновь продемонстрировала свою приверженность открытости и честности с пользователями.

Фабрис Канель, менеджер по продуктам в Microsoft Bing, описал запуск в X (ранее Twitter) как способ объединить классические методы поисковой оптимизации с теми, которые работают на основе искусственного интеллекта.

Издатели теперь могут понять, как их контент отображается при использовании ИИ. Рассматривайте это как ‘GEO’ – понимание *где* ваш контент просматривается – в сочетании с ‘SEO’ – оптимизацией для поисковых систем. Используйте эти реальные данные для улучшения вашей контент-стратегии.

Люди в социальных сетях в основном были разочарованы тем, что эти полезные данные поступают из Bing, а не от Google, поскольку многие уже давно запрашивали подобную информацию. Есть надежда, что Google и OpenAI скоро выпустят аналогичные отчеты.

Скрытая HTTP-главная страница может сломать имя вашего сайта в Google.

Недавно Джон Мюллер из Google объяснил сложную проблему в Bluesky, где старая, незащищенная (HTTP) версия домашней страницы вызывала отображение неправильных названий сайтов и фавиконок в результатах поиска Google. Эта проблема трудно обнаружима, поскольку Chrome часто автоматически переключает HTTP-запросы на более безопасный HTTPS, поэтому вы бы не заметили ошибку, просто просматривая сайт.

Веб-сайт был настроен на использование защищённого соединения (HTTPS), но старая, незашифрованная версия главной страницы всё ещё была доступна. В то время как веб-браузеры, такие как Chrome, автоматически перенаправляли посетителей на защищённую версию, веб-краулер Google (Googlebot) не делал этого автоматически. Это означало, что Googlebot просматривал и индексировал незащищённую версию страницы вместо защищённой.

Почему это важно

Вы не обнаружите эту проблему при обычной проверке веб-сайта, так как она невидима в вашем браузере. Если название или значок вашего веб-сайта в результатах поиска отображается неправильно, но всё выглядит нормально на вашей защищённой (HTTPS) главной странице, стоит изучить незащищённую (HTTP) версию вашего веб-сайта.

Руководство Google относительно названий веб-сайтов рассматривает вопрос о наличии дублирующихся домашних страниц – например, наличие как обычной (HTTP), так и защищенной (HTTPS) версии одной и той же страницы. Google рекомендует использовать одинаковую разметку данных на обеих версиях. Недавний пример от Джона Мюллера из Google иллюстрирует, что может произойти, если контент на HTTP-версии вашей домашней страницы отличается от предполагаемой HTTPS-домашней страницы.

Что говорят люди

Мюллер назвал ситуацию ‘странной’, объяснив, что основная проблема незаметна, когда вы просто пользуетесь интернетом в обычном режиме.

Chrome автоматически переключает веб-сайты с менее безопасного HTTP на более безопасный HTTPS, поэтому вы обычно даже не заметите версию HTTP. Однако веб-краулер Google (Googlebot) *действительно* видит версию HTTP и использует эту информацию при выборе имени и значка (favicon) веб-сайта.

Эта ситуация показывает, что то, что вы видите в веб-браузере, не всегда то, что видят поисковые роботы. Такие функции, как автоматические обновления Chrome, режимы чтения и способ загрузки веб-сайтами контента с помощью JavaScript, могут вызывать различия. При устранении неполадок с именем или значком вашего сайта лучше всего проверять необработанные данные, отправляемые с вашего сервера, а не полагаться на то, как браузер отображает страницу.

Новые данные показывают, что большинство страниц хорошо укладываются в лимит обхода Googlebot.

Недавние исследования показывают, что большинство веб-страниц значительно меньше лимита в 2 МБ, который использует Googlebot при доступе к ним. Анализ, проведенный Роджером Монти в Search Engine Journal с использованием данных из HTTP Archive, предоставляет реальный взгляд на то, как размер страницы влияет на сканирование.

Недавние данные из HTTP Archive показывают, что размер большинства веб-страниц не превышает 2 МБ. Google также недавно подтвердил, что его веб-краулер, Googlebot, может эффективно обрабатывать файлы размером до 2 МБ, с более высоким лимитом в 64 МБ, предназначенным специально для PDF-документов.

Почему это важно

В последнее время SEO-специалисты обсуждают ‘ограничения сканирования’ – количество страниц, которые Googlebot будет сканировать на веб-сайте. Эта дискуссия получила развитие после того, как Google недавно обновил свою документацию о работе Googlebot.

Раньше было неясно, вызовет ли ограничение в 2 МБ проблемы для веб-сайтов. Теперь, располагая новыми данными, мы знаем, что для большинства сайтов ответ — нет. Типичные веб-страницы, даже содержащие много контента, обычно даже не приближаются к этому лимиту.

Ограничение может стать заметным на веб-страницах с чрезмерно сложным кодом, скриптами непосредственно в HTML или большим количеством встроенных данных, что может привести к необычно большому размеру страницы.

Как человек, который давно управляет веб-сайтами, я заметил чёткую тенденцию: Google действительно раскрывает информацию о том, как работают его веб-краулеры. Они создали специальный сайт, посвященный документации по сканированию, значительно прояснили, какие правила применяются к различным ботам, и теперь даже делятся реальными данными, чтобы доказать эти ограничения. Честно говоря, это огромная помощь, потому что это дает нам гораздо лучшее понимание того, что Googlebot может обрабатывать при посещении наших сайтов.

Что говорят профессионалы технического SEO

Дейв Смарт, технический SEO-консультант из Tame the Bots и высоко оцененный эксперт Google Search Central, недавно поделился некоторыми наблюдениями в LinkedIn:

Smart затем улучшил свой инструмент ‘Tame the Bots’, чтобы имитировать обрыв соединения и посмотреть, как это будет работать. Он поделился предупреждением в Bluesky о потенциальных проблемах, которые это может вызвать.

Я добавил функцию для ограничения текстовых файлов до 2 МБ, хотя маловероятно, что это станет проблемой для большинства веб-сайтов. Я сделал это, чтобы протестировать, как система обрабатывает более крупные файлы.

Джон Мюллер из Google одобрил этот инструмент на Bluesky, написав:

«Если вам интересно ограничение в 2 МБ для получения HTML Googlebot, вот способ проверить это.»

Мюллер также поделился данными Web Almanac на Reddit, чтобы прояснить предел контекста:

Типичный размер мобильной веб-страницы составляет около 33kb, и 90% страниц весят менее 151kb HTML.

После анализа данных из HTTP Archive, Роджер Монтти из Search Engine Journal пришел к аналогичному выводу: большинство веб-сайтов хорошо укладываются в рекомендуемый предел размера HTML. Он предполагает, что владельцам веб-сайтов можно перестать беспокоиться о размере HTML как о факторе, влияющем на их поисковую оптимизацию (SEO).

Тема недели: Разрыв в диагностике

Истории, которые мы освещали на этой неделе, все подчеркивают упущенные детали или проблемы, которые ранее рассматривались неверно.

Новый инструмент цитирования AI от Bing помогает отслеживать, когда AI-системы используют контент с веб-сайтов, что было сложно отслеживать до сих пор. Недавние исследования Google о скрытых веб-страницах показывают, что стандартные проверки веб-сайтов могут пропускать контент, который Chrome намеренно скрывает. Наконец, данные о том, как часто Googlebot сканирует веб-сайты, проясняют вопросы, которые не могли быть полностью объяснены в собственной документации Google.

Эти проблемы не новы – проблемы с AI цитированием, запутанными названиями веб-сайтов и ограничениями сканирования существовали некоторое время. Что изменилось сейчас, так это то, что у нас наконец-то появились способы их реально *увидеть* и измерить. На этой неделе были выпущены инструменты – такие как панели управления, простые тесты и отчеты о данных – которые предоставляют нам конкретную информацию о каждой из этих проблем.

Становится всё проще понять, как поисковые системы оценивают ваш контент, благодаря более детальным инструментам и данным. Однако, выяснить *где* найти эту информацию может быть непросто.

Смотрите также

2026-02-13 17:11

Новый Markdown от Cloudflare для AI ботов: что вам нужно знать

Cloudflare теперь автоматически преобразует веб-страницы в более простой текстовый формат (markdown), когда искусственный интеллект запрашивает их. Это позволяет веб-сайтам, использующим Cloudflare, отправлять меньше данных ботам, не нуждаясь в создании специальных версий своих страниц.

Как вебмастер, я тестировал новую интересную функцию, которую мы называем Markdown для Агентов. По сути, она использует хитрый трюк с тем, как браузеры запрашивают контент. ИИ ‘краулер’ запрашивает страницу, но вместо запроса стандартного HTML он конкретно запрашивает ‘text/markdown’ в заголовке своего запроса. Наша система Cloudflare видит это, получает исходный HTML с наших серверов, автоматически преобразует его в формат markdown, а затем отправляет этот markdown обратно краулеру. Это действительно оптимизированный способ доставки контента в формате, который ИИ-агенты могут легко обрабатывать.

Этот релиз последовал за комментариями Джона Мюллера из Google, который недавно раскритиковал предоставление markdown AI-ботам, предполагая, что это ненужно и сомневаясь в их способности правильно обрабатывать ссылки в этом формате.

Что нового

Cloudflare объясняет, что их новая функция позволяет обращаться с программами искусственного интеллекта так же, как с обычными посетителями веб-сайтов. В качестве примера они сравнили количество токенов, используемых веб-страницей в формате HTML и markdown. Версия в HTML потребовала 16 180 токенов, в то время как версия в markdown использовала всего 3 150.

Предоставление ИИ необработанного HTML-кода неэффективно, как концентрация на упаковке вместо самого сообщения, которое она содержит.

Cloudflare обрабатывает преобразование напрямую в своей глобальной сети, что означает, что ваш исходный сервер не затронут. Вы можете включить эту функцию для своего веб-сайта через панель управления Cloudflare. В настоящее время она доступна в качестве бесплатной бета-версии для клиентов с планами Pro, Business и Enterprise, а также для тех, кто использует SSL для SaaS.

Cloudflare заметила, что некоторые AI-помощники по кодированию, включая Claude Code и OpenCode, начинают использовать заголовок `Accept: text/markdown` в своих запросах.

Каждый ответ, который мы предоставляем, включает заголовок ‘x-markdown-tokens’, который сообщает вам приблизительное количество токенов в версии markdown. Это полезно для разработчиков, которым необходимо контролировать, сколько текста обрабатывается за один раз, или понять, как разбить более крупные фрагменты контента.

Настройки по умолчанию Content-Signal

Ответы теперь маркируются специальным заголовком под названием `Content-Signal`, который автоматически указывает, что контент одобрен для использования в обучении ИИ, поисковых системах и в качестве входных данных для ИИ-систем (включая те, которые действуют самостоятельно). Однако каждый бот или сервис может выбирать, уважать эти сигналы или нет. Cloudflare планирует предоставить более настраиваемый контроль над этими сигналами в будущем.

Как цифровой маркетолог, я был очень рад узнать о Content Signals от Cloudflare, которые они представили во время своей Birthday Week. Это меняет правила игры, потому что, наконец, это дает нам контроль над тем, как наш контент используется в сети. И небольшое предупреждение: включение преобразования markdown меняет не только формат; оно автоматически сигнализирует о том, как вы *хотите*, чтобы этот контент использовался, поэтому важно понимать эту встроенную функциональность.

Чем это отличается от того, что критиковал Мюллер?

Мюллер указывал на проблемную технику, которую используют некоторые владельцы веб-сайтов. Они создают отдельные страницы, написанные в markdown, а затем показывают их конкретно AI-ботам, используя специальное программное обеспечение. Мюллера беспокоило, что это может быть расценено как ‘cloaking’ – обман поисковых систем – а также то, что ссылки на этих страницах могут работать некорректно. Он также задался вопросом, смогут ли боты вообще правильно читать markdown-файлы.

Cloudflare использует другой подход. Вместо того, чтобы идентифицировать браузер пользователя и затем отображать конкретную версию веб-страницы, он использует технику, называемую согласованием контента (content negotiation). Это означает, что один и тот же веб-адрес может доставлять разный контент в зависимости от того, что запрашивает браузер пользователя.

Джон Мюллер уточнил, что он обсуждал предоставление различного контента на основе браузера пользователя (user-agent), а не согласование контента. Он повторил эту мысль в обсуждении на Reddit о функции Cloudflare, задаваясь вопросом, почему разработчики создавали бы отдельную, сложную версию сайта только для ботов, когда они могли бы просто улучшить сайт для всех пользователей.

Google объясняет, что клоакинг включает в себя отображение различного контента пользователям и поисковым системам для повышения рейтинга и обмана людей. Однако, ситуация здесь немного иная. Вместо того, чтобы показывать совершенно другой контент, сервер определяет браузер пользователя (user-agent sniffing) или отвечает на конкретный запрос определенного формата (content negotiation). Это просто означает, что информация представлена по-разному – например, текст против мобильной версии – но это по-прежнему основной контент для всех.

С точки зрения поисковой системы, результат остаётся в значительной степени прежним. Если Googlebot запрашивает типичную веб-страницу, он получает полную HTML-версию. Однако, если AI-программа запрашивает контент в более простом markdown-формате, она получает текстовую версию той же информации.

New Radar Tracking

Как человек, который внимательно следит за трафиком веб-сайтов, я действительно впечатлён новыми данными, которые Cloudflare Radar показывает об AI ботах. Они начали отслеживать, *какие* типы контента запрашивают эти боты – например, изображения, текст или видео – и разбивать это по техническому типу файла (MIME type). Это даёт гораздо более чёткое представление о том, что AI краулеры на самом деле ищут в интернете.

Вы можете проверить, какие типы контента получает каждый бот. Например, Cloudflare продемонстрировала, как увидеть количество markdown ответов, отправленных поисковому краулеру OpenAI.

Данные доступны через публичные API и Data Explorer от Cloudflare.

Почему это важно

Если ваш веб-сайт уже использует Cloudflare, вы можете легко включить преобразование markdown одним переключателем, вместо создания отдельных страниц для markdown-контента.

Включение Markdown для Агентов автоматически добавляет специальные инструкции к контенту, сигнализируя о том, что его можно использовать для обучения ИИ, поиска и в качестве входных данных для моделей ИИ. Если вы ранее контролировали, как ИИ получает доступ к вашему контенту, вам следует проверить эти новые настройки перед включением этой функции.

Заглядывая вперёд

Cloudflare объявила, что в конечном итоге позволит пользователям настраивать обработку контента в Markdown для Agents с помощью пользовательских опций политики.

Опасения Роберта Мюллера касались того, как веб-сайты используют отдельные markdown-страницы, а не типичного способа доставки контента на основе предпочтений пользователей. Google не уточнил, будет ли использование content negotiation для предоставления markdown-контента считаться нарушением их правил против cloaking.

Как цифровой маркетолог, хочу сообщить вам, что эту функцию необходимо активно включить, и она доступна только при наличии платного плана Cloudflare. Прежде чем её включить, настоятельно рекомендую ознакомиться с настройками по умолчанию для Content-Signal – просто чтобы убедиться, что всё настроено так, как вы хотите.

Смотрите также

2026-02-13 16:40

Тестирование торговых объявлений в режиме ИИ, руководство Microsoft по поиску с ИИ и изменение стратегии ключевых слов – PPC Pulse

Этот выпуск PPC Pulse посвящен тому, как искусственный интеллект интегрируется в поисковую рекламу – в частности, как он меняет построение кампаний и то, как вы зарабатываете на поиске.

Google экспериментирует с отображением Shopping-рекламы непосредственно в своей функции чата на базе искусственного интеллекта. Между тем, Microsoft выпустила руководство, объясняющее, как бренды появляются в результатах поиска на базе искусственного интеллекта. И, согласно подкасту Google Ads Decoded, создание рекламных кампаний больше не должно начинаться с выбора ключевых слов.

Вот что произошло на этой неделе и почему это важно для рекламодателей.

Google тестирует торговые объявления внутри режима ИИ.

Компания Google недавно объявила в своем блоге о тестировании нового типа рекламы с использованием своей технологии искусственного интеллекта. Видья Сринивасан, вице-президент и генеральный директор Google Ads & Commerce, подтвердила проведение теста.

Это рекламное объявление о покупках, которое использует ИИ для предложения продуктов, соответствующих запросу пользователя.

Я внимательно слежу за ситуацией, и Google только что сообщил, что они не останавливаются на рознице! Они активно тестируют эти новые форматы и в других областях, таких как travel. Это означает, что мы можем увидеть большие изменения в том, как контент, связанный с travel, появляется в результатах поиска, поэтому важно оставаться гибкими в наших SEO-стратегиях.

Пожалуй, наиболее примечательным аспектом объявления была подача рекламы. Сринивасан объяснил:

«Мы не просто внедряем рекламу в AI-опыт в Поиске; мы переосмысливаем, что такое реклама.»

Это может означать изменения в текущих форматах Google Ads, или Google может представить новые типы рекламы в будущем.

Почему это важно для рекламодателей

Это кажется скорее не «новым размещением», а изменением в монетизации поиска.

При использовании ИИ меняется способ, которым люди находят информацию. Вместо просмотра списков результатов поиска они ведут беседу с ИИ, задают вопросы, уточняют свои потребности, сравнивают варианты и принимают решения в рамках этого единственного взаимодействия.

Это важно, потому что это меняет наше определение ‘присутствия’ в результатах поиска. Речь идет не только о верхних позициях в рейтинге или даже о первой платной рекламе. Речь идет о том, чтобы быть среди вариантов, которые система искусственного интеллекта рассматривает и показывает пользователям при сравнении опций.

Это изменение повышает важность наличия высококачественного товарного фида для Shopping Ads. Поскольку Google теперь использует ИИ для выбора, какие товары рекомендовать, основываясь на таких деталях, как характеристики, уровни запасов, цена и магазины, в которых они продаются, ваша информация о товарах должна быть точной и полной, чтобы выделиться.

Это также поднимает ключевой вопрос для многих команд. Если результаты, основанные на искусственном интеллекте, показывают меньше рекламы, чем обычно, конкуренция за эти рекламные места, вероятно, возрастёт. Успех тогда может больше зависеть от соответствия конкретным требованиям и высокой релевантности поисковому запросу, а не просто от перебивания всех остальных.

Что говорят профессионалы в области PPC

Большинство специалистов по PPC в LinkedIn ожидали этого изменения и сейчас обсуждают практические детали его реализации.

Томас Эксел из AdSea Innovations объявил, что этот новый формат можно использовать в существующих кампаниях Shopping и Performance Max – что, скорее всего, заинтересует большинство рекламодателей. Ключевой вопрос заключается в том, нужно ли рекламодателям создавать совершенно новые кампании, или это просто расширение их текущих возможностей.

Я читал пост от Andrew Lolk на SavvyRevenue, и мы обсуждали, как подход Google к монетизации своих AI-функций – таких как AI Mode – сопоставим с конкурентами, такими как ChatGPT и Claude. Интересно наблюдать, как все разбираются со стороной монетизации.

Мартин Гробе, глава SEA и Programmatic Display в Suchmeisterei GmbH, заявил:

Google извлекает выгоду из того, что пользователи воспринимают его AI-функции как естественное расширение Google Search, что делает их восприимчивыми к рекламе. Это позволяет Google тестировать способы монетизации AI, не нарушая работу базовой версии Gemini. Со стандартным Gemini Google может наблюдать, насколько хорошо конкуренты, такие как Claude и ChatGPT, интегрируют рекламу, а затем принять аналогичный, успешный подход.

Большая часть обсуждений касается не восторга от чего-то нового, а скорее практических вопросов, таких как кто имеет право на участие и какие данные необходимо улучшить. Люди также задаются вопросом, как будет измеряться эффективность рекламы, особенно учитывая, что эта реклама появляется, когда пользователи активно просматривают контент.

Microsoft выпускает руководство по поиску на основе ИИ для маркетологов

Microsoft Advertising недавно выпустила новую версию своего справочника по поиску с использованием ИИ. Это руководство объясняет, как искусственный интеллект меняет способ, которым люди находят информацию в интернете с помощью поисковых систем и голосовых помощников.

Microsoft уделяет приоритетное внимание признанию себя надёжным источником в ответах, сгенерированных ИИ, а не просто сосредотачивается на том, как высоко её ссылки появляются в результатах поиска.

Он также объясняет, как SEO соотносится и отличается от нового подхода, называемого generative engine optimization. Кроме того, он предлагает советы по написанию контента, который легко понять ИИ, делая его ясным и хорошо структурированным.

Почему это важно для рекламодателей

На первый взгляд, это выглядит как SEO-беседа. Но платным командам стоит обратить внимание по двум причинам.

Microsoft демонстрирует, что аналитические данные на основе искусственного интеллекта — это реальность, а не просто будущая возможность. Они призывают маркетологов адаптировать свои стратегии к этому новому ландшафту, управляемому искусственным интеллектом.

Во-вторых, то, как организована ваша информация, действительно влияет на производительность в ИИ. Бренды не появляются в ответах ИИ благодаря творческому письму; они появляются потому, что их информация представлена четко, последовательно и в форме, которую компьютеры могут легко понять.

Независимо от того, являетесь ли вы ежедневным пользователем Microsoft Ads или Google Ads, вы, вероятно, заметили тенденцию: мы наблюдаем отход от ручной настройки множества параметров и переход к использованию высококачественных данных. Это означает, что такие вещи, как хорошо написанный рекламный текст, хорошо организованный товарный фид и чёткие, понятные целевые страницы становятся всё более важными.

Microsoft советует, что для того, чтобы ваш контент отображался в результатах поиска на основе искусственного интеллекта, необходимо организовывать информацию с той же тщательностью и вниманием, которое вы уделяете скорости веб-сайта и технической производительности.

Что говорят профессионалы

Люди хорошо отреагировали на новую стратегию Microsoft, во многом потому, что она сосредоточена на чётком объяснении того, как всё работает, вместо того, чтобы полагаться на преувеличенную рекламу.

Навах Хопкинс, работающая с Microsoft Ads, также объяснила, как это обновление может помочь людям, управляющим платными рекламными кампаниями. Она выделила такие преимущества, как улучшенное управление бюджетом, понимание того, как пользователи взаимодействуют с целевыми страницами, и улучшение коммуникации с клиентами.

Многие люди отреагировали положительно, заявив, что ценят тот факт, что эта информация объясняется чётко и просто.

«Ключевые слова – это средство достижения цели» в подкасте Ads Decoded.

В новом эпизоде Ads Decoded, посвященном структурированию Search кампаний, был затронут ключевой момент от Google, который, вероятно, будет по-разному воспринят в зависимости от вашего опыта в рекламе.

На этой неделе у меня состоялся очень содержательный разговор с Брэндоном Эрвином, который возглавляет управление продуктами для поисковой рекламы в Google. Мы – Джинни Марвин из Google Ads и я – обсудили многое, но мы действительно углубились в то, как лучше всего структурировать ваши аккаунты и как ключевые слова вписываются в текущий ландшафт поисковой рекламы.

Эрвин объяснил, что к 2026 году ключевые слова станут инструментами для достижения более широких целей, а не целями сами по себе. Он советует рекламодателям сначала определить свои бизнес-цели и общий маркетинговый план, а затем использовать ключевые слова для поддержки этой стратегии.

Беседа охватила переход к пониманию *смысла* за запросами, при этом признавая, что точное соответствие по-прежнему полезно для конкретных потребностей. Они также говорили о том, как сопоставление поисковых запросов постоянно улучшается благодаря постоянному совершенствованию базовой технологии.

Джинни Марвин также опубликовала пост об эпизоде в LinkedIn, обсуждая, как работают поисковые системы сейчас и почему ключевые слова по-прежнему важны.

Почему это важно для рекламодателей

Это важно, потому что Google подтверждает то, что рекламодатели уже обнаружили на практике. Долгое время лучшей практикой было быть очень конкретным – создавать небольшие, сфокусированные группы объявлений и списки ключевых слов для поддержания максимального контроля.

Долгое время этот подход действительно хорошо работал, и я с ним полностью соглашался. Эти старые структуры кампаний SKAG имели смысл, когда они были впервые созданы. Использование широких соответствий ключевых слов казалось слишком рискованным, а объединение кампаний часто ощущалось как способ потерять деньги.

Однако ситуация изменилась. Сама система эволюционировала, поведение пользователей в сети изменилось, и Google теперь понимает, что люди ищут, по-другому.

Когда Google говорит, что ключевые слова — это всего лишь инструмент, они имеют в виду, что вам не следует строить весь свой план *вокруг* них. Вместо этого, сначала сосредоточьтесь на том, чего вы хотите достичь как бизнес, как вы будете доносить своё сообщение и что ваша аудитория намерена найти. Ключевые слова должны затем поддерживать эту более широкую стратегию, а не *быть* стратегией.

Это также меняет то, как мы должны рассматривать поисковые запросы, которые кажутся странными на первый взгляд. Эти поиски могут быть нерелевантными, но они также могут указывать на то, что кто-то исследует новые идеи – и ваша система может либо распознать это и адаптироваться, либо игнорировать это, если фильтры слишком строгие.

Я не предлагаю полностью отказаться от структуры. Однако сегментация должна иметь чёткую цель. Если ваши группы объявлений по сути идентичны – таргетируют одни и те же ключевые слова, направляют трафик на одну и ту же целевую страницу и используют одну и ту же рекламу – разделение их может фактически ухудшить производительность, заставляя рекламную платформу преодолевать ненужные разделения.

Что говорят профессионалы в области PPC

Разговор в PPC по этой теме обычно разделяется на два лагеря.

Одна команда интерпретировала заявление о том, что ключевые слова служат цели, как потерю контроля над своей работой, в то время как другая увидела в этом просто подтверждение того, как всё уже работало.

Я читал комментарии к публикации Джинни Марвин о последнем эпизоде, и очевидно, что существует много дискуссий о том, как мы сейчас структурируем вещи и что все еще нужно держать отдельно, переходя в 2026 год. Кажется, люди действительно думают о будущем того, как мы организуем вещи.

Брэд Геддес, сооснователь Adalysis, поблагодарил Эрвина и Марвина за их откровенность, заявив:

Я всегда думал, что Google использует данные из всех моих кампаний для улучшения ставок и оптимизации, но никто не мог это подтвердить. Теперь, когда вы мне сказали, я знаю, что это правда – огромное спасибо!

Александр Стамбари, специализирующийся на performance marketing, в целом согласился с сообщением, но отметил важность таргетинга на правильную аудиторию. Он объяснил:

У меня есть одно опасение, хотя: чрезмерное упрощение может привести к потере контроля. В конкурентных областях, таких как онлайн-продажи и получение бизнес-лидов, группировка клиентов по их потребностям, прибыльности и поисковым запросам по-прежнему очень ценна. Объединение всего в одно без тщательного анализа может привести к посредственным результатам и затруднить поиск способов улучшения.

Марвин ответил на комментарий, подчеркнув точку зрения Эрвина о том, что рекламодатели должны использовать целевые группы только тогда, когда это соответствует их общим бизнес-целям, и должны основывать свою стратегию на этих целях.

Интересно, что Google открыто обсуждает это и конкретно нацелен на маркетологов, а не на технических экспертов. Это говорит о том, что они предполагают, что многие рекламодатели столкнутся с трудным выбором относительно того, как потратить свои деньги в этом году.

Тема недели: Усиление инфраструктуры поиска с помощью ИИ.

Все недавние изменения подчеркивают фундаментальное изменение: ИИ не просто улучшает Search, он выявляет слабости в том, как всё устроено в настоящее время.

Google и Microsoft обе экспериментируют с отображением торговых объявлений в своих поисковых системах на базе искусственного интеллекта. Это означает, что то, насколько заметны ваши продукты, теперь сильно зависит от качества данных о ваших продуктах и от того, насколько хорошо они соответствуют обобщенным ответам ИИ. Google подчеркивает, что, хотя ключевые слова по-прежнему важны, понимание того, что клиенты *намереваются* купить, теперь является самым важным фактором для видимости рекламы.

Когда информация появляется непосредственно в ответах, и наиболее важны небольшое количество результатов, хорошо организованная структура – это не просто приятное дополнение – это ключевой фактор того, насколько хорошо все работает.

Когда ваши данные точны, ваше общение прямолинейно, и ваши маркетинговые усилия искренне отвечают на то, что хотят люди, ИИ усилит ваши результаты. Но если в какой-либо из этих областей есть слабости, ИИ быстро выявит эти недостатки.

Смотрите также

2026-02-13 16:12