Джон Мюллер из Google высказался по поводу дебатов SEO против GEO.

Джон Мюллер, представитель Google по вопросам поиска, предполагает, что компаниям, получающим трафик с других веб-сайтов, следует рассмотреть, как инструменты искусственного интеллекта могут им помочь.

Рэнд Фишкин (Мюллер) ответил на вопрос в Reddit о том, достаточно ли сегодня традиционного SEO. В вопросе спрашивалось, должны ли SEO-специалисты также уделять внимание ‘GEO’ – оптимизации контента для видимости в поисковых инструментах на основе ИИ, таких как ChatGPT, Gemini и Perplexity.

По словам Мюллера, если ваш онлайн-бизнес зависит от трафика с других веб-сайтов для получения дохода, важно учитывать все факторы и сосредоточиться на самом важном.

Что сказал Мюллер

Мюллер не согласился и не отверг идею использования ГЕО-терминов. Вместо этого он обсудил это как вопрос принятия разумных бизнес-решений, а не поиска лучших способов технического улучшения.

Он объяснил, что конкретный термин не важен, но искусственный интеллект здесь навсегда. Стоит рассмотреть, какую ценность предлагает ваш веб-сайт, когда искусственный интеллект легко доступен.

Он также не согласился с идеей о том, что отслеживание действий ИИ всегда должно быть главной заботой. Вместо этого, Мюллер посоветовал людям, работающим с ИИ, начать с изучения собственных данных.

Мюллер добавил:

Также важно быть практичным и проверять реальные данные о том, как люди на самом деле используют вещи. Поймите, кто ваша аудитория – сколько людей используют AI, сколько на Facebook, и что это говорит вам о том, куда направлять свои усилия.

Почему это важно

За последний год обсуждения ‘GEO’ – оптимизации для географических сигналов – стали более распространенными, особенно с тех пор, как поисковые системы на базе искусственного интеллекта начали приводить к заметному трафику на веб-сайты. Я изучил данные о том, как цитирования, веб-трафик и рейтинги Google соотносятся с тем, как большие языковые модели (LLMs) цитируют источники. Однако мы до сих пор не получили однозначного ответа от Google: является ли GEO уникальной областью изучения или просто новой версией традиционной поисковой оптимизации (SEO)?

То, что Джон Мюллер из Google недавно объяснил, соответствует тому, что Гэри Ильес обсуждал на Search Central Live: функции на базе искусственного интеллекта и традиционный поиск фактически используют одну и ту же базовую технологию. Это означает, что вам, вероятно, не нужна совершенно новая стратегия, но *действительно* важно понимать, как меняется способ, которым люди находят информацию в сети.

Я особенно ценю его акцент на проверке собственных данных. Прямо сейчас ChatGPT отправляет около 0.19% трафика на средний веб-сайт, а все вместе AI-помощники составляют менее 1% для большинства издателей. Хотя эти цифры растут, они еще недостаточно значительны, чтобы требовать полной переработки вашего подхода.

Заглядывая в будущее

Даже если Google изменит свой подход, термин ‘GEO’, вероятно, останется с нами. В конечном счете, Джон Мюллер из Google предполагает, что каждый бизнес должен отслеживать, как ведет себя его аудитория.

Смотрите также

2026-01-07 19:39

Google’s Mueller Explains ‘Page Indexed Without Content’ Error

Джон Мюллер из Google объяснил, что ошибка «Страница проиндексирована без контента» в Search Console обычно возникает из-за того, что серверы или CDN блокируют Google, а не из-за проблем с JavaScript.

Один пользователь Reddit заметил, что главная страница его веб-сайта опустилась из топ-позиции в результатах поиска (позиция 1) на позицию 15 после возникновения ошибки.

Что происходит?

Роберт Мюллер объяснил, почему люди иногда видят ошибку «Страница проиндексирована без контента» в Google Search Console.

Мюллер написал:

Как правило, эта проблема означает, что ваш сервер или сеть доставки контента (CDN) препятствует доступу Google к контенту вашего веб-сайта. Это не проблема с кодом вашего веб-сайта, а скорее блокировка на уровне сервера, часто основанная на IP-адресе веб-краулера Google (Googlebot). По этой причине сложно протестировать эту проблему, кроме как с помощью инструментов, доступных в Google Search Console.

Пользователь Reddit уже попробовал несколько шагов по устранению неполадок. Они использовали curl, чтобы посмотреть, как Google видит страницу, проверили, не вызывает ли JavaScript проблем, и использовали Rich Results Test от Google. При проверке страницы на настольном компьютере с помощью инструментов проверки они получили сообщения об ошибках, но те же инструменты работали нормально на мобильных устройствах.

Мюллер отметил, что стандартные методы внешнего тестирования не позволят обнаружить эти блоки.

Он добавил:

Это означает, что страницы вашего сайта могут скоро исчезнуть из результатов поиска, или уже исчезли. Важно быстро решить эту проблему.

Веб-сайт построен на Webflow и использует Cloudflare для доставки контента. Пользователь сообщил, что ранее главная страница правильно индексировалась в поисковых системах и что не было никаких недавних обновлений сайта.

Почему это важно

Я видел эту проблему много раз раньше. Иногда настройки веб-сайта для сетей доставки контента (CDNs) или серверов случайно блокируют веб-краулер Google (Googlebot), не вызывая проблем для обычных посетителей или типичных тестов веб-сайта. Это часто происходит потому, что блокировки нацелены на конкретные интернет-адреса, поэтому такие инструменты, как `curl` и другие проверки веб-сайтов, не обнаружат проблему.

Я ранее объяснял, когда Google начал показывать ‘проиндексировано без контента’ в отчете об охвате индекса. Документация Google тогда утверждала, что это означает, что Google не может получить доступ к тексту страницы, и уточнил, что это не связано с файлом robots.txt, блокирующим доступ. Обычно проблема заключается в более технической проблеме на самом веб-сайте.

Я заметил кое-что интересное с Cloudflare. Ранее я освещал похожую ситуацию, когда Джон Мюллер из Google помог владельцу сайта, сайты которого одновременно перестали индексироваться на нескольких доменах. Все пострадавшие сайты использовали Cloudflare, и Мюллер подозревал проблему с их общей серверной настройкой. Эта новая ситуация, кажется, следует тому же шаблону.

Недавно я сообщал о сбое Cloudflare в ноябре, который вызвал ошибки при попытке Google просканировать веб-сайты. Это была масштабная проблема, затронувшая множество сайтов. Эта текущая проблема кажется другой – вероятно, это мера безопасности, такая как фильтр ботов или брандмауэр, которая конкретно влияет на веб-сканер Google (Googlebot) и обрабатывает его трафик по-другому.

Лучшие способы узнать, заблокирован ли доступ Google к вашему сайту, по-прежнему остаются инструментом проверки URL и тестом Live URL в Search Console. Если эти инструменты показывают ошибки, но другие тесты не показывают, вероятно, ваш сервер блокирует Google. Джон Мюллер из Google недавно отметил это, обсуждая внезапное снижение скорости, с которой Google сканирует сайт, и посоветовал владельцам веб-сайтов подтвердить, что произошло, и проверить, блокирует ли сеть доставки контента (CDN) Googlebot.

Заглядывая в будущее

Если вы получаете ошибку «Страница проиндексирована без контента», проблема может заключаться в настройке вашего CDN и сервера. Проверьте свои правила безопасности, чтобы убедиться, что они не блокируют веб-краулеры Google. Google предоставляет список IP-адресов, используемых его краулерами, чтобы вы могли проверить, не блокируете ли вы их случайно.

Инструмент проверки URL в Google Search Console – лучший способ понять, как Google видит ваши страницы при их обходе. Другие онлайн-инструменты не могут обнаружить блокировки, которые влияют только на системы Google.

Если вы являетесь пользователем Cloudflare, тщательно проверьте управление ботами, правила брандмауэра и любые ограничения, основанные на IP-адресах. Эти настройки могли быть автоматически обновлены или изменены на новые значения по умолчанию, даже если вы сами не вносили изменения.

Смотрите также

2026-01-07 19:42

Почему несогласованность глобального поиска — это инженерная особенность и бизнес-ошибка

AI Overviews от Google знаменуют собой значительное изменение в работе поиска. Ранее Google сосредотачивался на поиске лучшей веб-страницы по вашему запросу. Теперь он использует ИИ для создания всестороннего и надёжного объяснения, объединяя информацию из различных источников.

Эта статья исследует, как генеративный поиск иногда может показывать результаты для неверных местоположений – распространенная проблема, которую мы называем «географическим вытеканием». В ней объясняется, почему стандартные методы исправления этой проблемы, такие как теги hreflang, плохо работают с поиском на базе искусственного интеллекта. Статья подчеркивает, как нечеткий язык и склонность ИИ к упрощению информации могут усугубить эту проблему, и представляет новый подход под названием Generative Engine Optimization (GEO), чтобы помочь компаниям добиться успеха в этой развивающейся среде.

Инженерный взгляд: особенность надежного извлечения.

1. Запрос, Разветвление и Техническая Точность

AI Overviews работают, разбивая ваш вопрос на несколько более мелких поисковых запросов. Вместо того, чтобы рассматривать только одну вещь, он исследует различные аспекты темы – например, что это значит, как это работает, какие-либо ограничения, юридические аспекты, как это используется в конкретных ситуациях и как это сравнивается с другими вещами.

2. Информационный поиск на разных языках (Cross-Language Information Retrieval (CLIR))

Современные большие языковые модели (LLM) могут понимать и работать со многими языками, не нуждаясь в прямом переводе между ними. Они преобразуют контент из разных языков в общее понимание, позволяя им генерировать ответы на основе полученной информации, а не только на том, что они видят на странице. Это означает, что язык не является препятствием, когда эти модели ищут информацию.

Семантический поиск против логики ранжирования: структурный разрыв

AI Overviews иногда показывает результаты со страниц, которые не являются лучшим соответствием для вашего местоположения, даже если существует вполне подходящая локальная страница. Это происходит потому, что способ, которым Google ранжирует результаты поиска, отличается от того, как его AI выбирает информацию для отображения.

Стандартный поиск Google работает путем поиска релевантных результатов и последующего определения, какую версию веб-страницы показывать пользователям, основываясь на таких факторах, как их местоположение, предпочтительный язык и языковые теги веб-сайта. Как только Google находит страницы, соответствующие вашему запросу, эти сигналы помогают ему выбрать наиболее подходящую региональную версию страницы.

Генеративные системы искусственного интеллекта работают, находя и используя релевантную информацию. Однако, во многих современных системах эта первоначальная информация часто упускается из виду или недооценивается, если она не соответствует тому, что ИИ считает наиболее релевантными результатами из его более широкого поиска.

Проблема векторной идентичности: когда рынки рушатся в бессмыслицу

В основе этого поведения лежит проблема векторной идентичности.

Современные системы искусственного интеллекта представляют информацию в виде списков чисел, которые улавливают смысл контента. Из-за этого, даже если у двух веб-страниц разный дизайн или они ориентированы на разную аудиторию, они могут быть распознаны как имеющие одинаковый смысл, если фактическое содержание очень похоже, и, следовательно, представлены почти идентичными числовыми значениями.

Модель рассматривает эти страницы как разные способы представления одной и той же основной информации. Такие вещи, как варианты доставки, валюта или возможность фактической покупки чего-либо, не являются частью того, что *означают* страницы; это просто дополнительные детали об адресе страницы в сети.

Свежесть как семантический мультипликатор

Поддержание информации в актуальном состоянии усугубляет эту проблему. Системы генерации с расширенным поиском часто предполагают, что более новая информация также более точна. Поскольку системы часто стандартизируют информацию на разных языках и в разных регионах, даже небольшое изменение на странице в одном месте может случайно привести к тому, что она будет ранжироваться выше, чем равноценные версии на других языках.

Даже небольшие изменения могут иметь большое значение – для этого необязательно предоставлять совершенно новую информацию. Простого перефразирования, добавления предложения для ясности или более прямого объяснения может быть достаточно. Следовательно, то, насколько свежий контент, является не просто нейтральным фактором; он фактически усиливает то, насколько сильно контент считается наилучшим результатом.

Неоднозначность как множитель силы в генеративном поиске.

Основная причина, по которой люди могут искать местные предприятия в интернете, но в итоге обращаются к другим, заключается в том, что их поисковые запросы нечеткие. Это часто упускается из виду.

Более старые методы поиска обычно определяли, что пользователи *имеют в виду*, позже в процессе – при отображении результатов. Они использовали подсказки, такие как местоположение пользователя, предпочтительный язык, тип устройства и предыдущие поиски, чтобы понять их намерения и показать релевантную информацию. Пользователи обычно ожидали, что Google поймет, что они ищут, и автоматически скорректирует результаты.

Генеративные системы поиска обрабатывают неясные запросы уникальным образом. Вместо того, чтобы сразу пытаться выяснить, что именно хочет пользователь, они расширяют поиск, чтобы учесть несколько возможных значений. Система исследует все разумные интерпретации одновременно, стремясь предоставить наиболее полный и исчерпывающий ответ.

Мы приняли это дизайнерское решение намеренно. Это помогает гарантировать, что ничего не будет упущено и делает наши ответы более надёжными. Однако это создаёт новую проблему: поскольку система сосредотачивается на тщательности, она может начать игнорировать правила о том, какую информацию следует, а какую не следует раскрывать, основываясь на местоположении или бизнес-потребностях – правила, которые мы ранее обрабатывали на более позднем этапе процесса.

Теперь, когда поиск не является однозначным, система избегает попыток угадать наилучший результат для каждого отдельного пользователя.

Почему правильный hreflang переопределяется?

Простое наличие правильно настроенных тегов hreflang не означает автоматически, что AI Overviews от Google будут показывать правильную версию вашей страницы для разных регионов. Hreflang и AI Overviews работают в отдельных частях системы Google.

Hreflang был изначально создан, чтобы помочь выбрать правильную языковую версию страницы *после* получения результатов поиска. Он работал путем замены на правильную региональную версию после того, как релевантная страница была идентифицирована. Однако, с AI Overviews, система определяет релевантность и правильную региональную версию гораздо раньше в процессе, во время первоначального поиска и сбора информации.

Мы используем только переведённую версию, если она предлагает значительно лучший и более точный ответ, чем оригинал.

Проще говоря, hreflang влияет на то, какая веб-страница *отображается* пользователям, но не на то, какая из них первоначально *найдена*. Когда дело доходит до AI Overviews, первоначальный поиск является ключевым шагом, который определяет результат.

Мандат разнообразия: Программный фактор утечек

Бизнес-перспектива: Коммерческий баг

Эти проблемы не вызваны неправильными настройками местоположения или неполными переводами. Они возникают из-за того, что система разработана для приоритета полного понимания смысла над практическими бизнес-потребностями, и эти проблемы являются естественным результатом этой разработки.

1. Коммерческая слепая зона

Если пользователи попадают на страницы, которые не соответствуют их запросам, они гораздо менее склонны достичь своей цели. Поскольку система не распознаёт эти неудачные исходы, она не учится на них и не вносит улучшения.

2. Географическая отмена сигнала

Традиционно, такие факторы, как местоположение пользователя, язык и валюта, помогали поисковым системам показывать релевантные результаты. Однако с развитием поисковых систем на базе ИИ эти сигналы теперь являются лишь предложениями. Система часто приоритизирует контент, который, по ее мнению, является наиболее семантически похожим, даже если он не соответствует исходным сигналам местоположения или языка.

3. Усиление без кликов

Процесс технического аудита генеративного поиска

Чтобы оставаться конкурентоспособными, компаниям необходимо выйти за рамки простого улучшения того, как вещи воспринимаются, и начать сосредотачиваться на Генеративном машинном обучении (GEO).

  1. Семантическое соответствие: Обеспечьте абсолютное соответствие на уровне фактических фрагментов данных на всех рынках. Незначительные асимметрии могут создать непреднамеренные преимущества при извлечении информации.
  2. Структурирование с учетом извлечения: структурируйте контент в атомарные, извлекаемые блоки, соответствующие вероятным ветвям распространения.
  3. Усиление полезного сигнала: предоставление явных, машиночитаемых индикаторов рыночной валидности и доступности для усиления ограничений, которые ИИ не может надежно вывести самостоятельно.

Заключение: Где функция становится ошибкой.

Географическая утечка не является признаком ухудшения поисковой выдачи. Она просто отражает изменение в работе поиска – переход от прямой перенаправки пользователей на конкретные веб-сайты к предоставлению более полных ответов и информации.

AI Overviews работают, как и предполагалось, с технической точки зрения. Если запрос неясен, обзор предоставит больше деталей. Система ориентирована на тщательность и предоставление информации, в которой она уверена в её актуальности.

Эта проблема затрагивает как бизнес, так и его пользователей, поскольку система относится ко всей информации как к равнозначной, не проводя различия между тем, что является правдой, и тем, что люди на самом деле считают интересным или полезным.

Как SEO-эксперт, я внимательно слежу за генеративным поиском и выявил основную проблему. То, что должно было сделать его великим – его способность предоставлять *полные* ответы – на самом деле может стать проблемой. Когда он пытается быть *слишком* всесторонним, он может упустить из виду то, что *действительно* нужно пользователю, делая опыт в целом менее полезным. Это сложный баланс!

Пока системы искусственного интеллекта не смогут надёжно доказать свою ценность и полезность в реальных ситуациях, предприятиям необходимо сосредоточиться на защите себя. В сегодняшнем ландшафте искусственного интеллекта, просто высокого рейтинга недостаточно – успех приходит от обеспечения того, чтобы наиболее точная информация была также наиболее практичной и простой в использовании.

Смотрите также

2026-01-07 17:41

Как поисковые системы адаптируют результаты к индивидуальным пользователям & как брендам следует этим управлять

Сколько раз вы видели различные макеты и результаты SERP на разных рынках?

Google подтвердил, что все видят разные результаты поиска. Аналогично, AI-платформы не дают одинаковый ответ каждому пользователю, даже если они задают один и тот же вопрос. Это создает проблему для маркетологов по всему миру: как нам эффективно управлять и использовать этот персонализированный опыт поиска в разных странах?

В современном мире ясность и честность имеют решающее значение. У людей так много вариантов и они легко отвлекаются, поэтому они хотят получить опыт, который кажется личным, надежным и полезным именно тогда, когда им это нужно. Адаптация контента к индивидуальным пользователям теперь является ключевой частью того, как клиенты находят, рассматривают и взаимодействуют с брендами.

На протяжении многих лет поисковые системы адаптировали результаты поиска для каждого пользователя на основе таких факторов, как его язык, то, что он ищет, и используемое им устройство. Теперь, с быстрым развитием ИИ, эта персонализация идёт ещё дальше. Платформы ИИ предоставляют сводные ответы, предназначенные конкретно для каждого пользователя, и создают высоконастраиваемые впечатления, основанные на собственных данных компании.

Это изменение требует от маркетологов пересмотреть, как они отслеживают видимость и результаты. Исследование McKinsey показало, что 76% пользователей расстраиваются из-за неперсонализированного опыта, подчеркивая тесную связь между релевантным контентом и удовлетворенностью клиентов.

Всё чаще люди находят новые бренды и продукты не через поисковые системы, а на платформах социальных сетей, таких как TikTok. Фактически, данные Statista показывают, что 78% пользователей интернета во всем мире сейчас используют социальные сети для изучения брендов и продуктов.

Всё это происходит, несмотря на то, что большинство людей не понимают, как работают поисковые системы или искусственный интеллект.

Независимо от того, как люди находят информацию, влияние выходит далеко за рамки просто поисковых технологий. Персонализация меняет то, как работают команды, как информация распространяется внутри компаний и даже как предприятия по всему миру оценивают достижения.

Эта статья рассматривает текущее значение персонализации и объясняет, как компании по всему миру могут использовать её, чтобы выделиться на фоне конкурентов.

От SERP к AI-резюме

Поисковые системы эволюционировали, выйдя за рамки простого перечисления ссылок. Теперь, когда вы задаете вопрос, они часто предоставляют прямые ответы и сводки, используя ИИ, в функциях, называемых AI Overviews и AI Mode. В настоящее время это происходит в основном при поиске информации.

Google часто отображает AI-сгенерированные сводки перед отображением ссылок на веб-сайты, и они постоянно экспериментируют с различными дизайнами страниц как на телефонах, так и на компьютерах, как вы можете видеть ниже.

Большие языковые модели идут ещё дальше, адаптируя свои ответы к конкретной ситуации каждого пользователя, тому, чего он пытается достичь, и даже его уровню подписки. Поскольку людям часто нужно уточнять свои запросы, они обычно ведут диалог с ИИ, где каждая новая инструкция основывается на предыдущих.

Глобальным брендам предстоит сложная задача: недостаточно просто идти в ногу с технологиями. Им также необходимо обеспечить, чтобы сообщение и ценности бренда оставались последовательными везде, несмотря на то, что каждый клиент воспринимает их по-своему. Создание доверия сейчас столь же важно, как и известность.

Современный рынок требует глубокого понимания клиентов посредством исследований, тщательного таргетинга, культурной осведомленности и отслеживания конкурентов. В то же время бренды все больше беспокоятся об ограниченных перспективах в сети, несправедливых результатах поиска и сложностях расширения в новые области или установления контакта с различными группами людей.

Как цифровой маркетолог, я наблюдаю значительный сдвиг в том, где люди открывают для себя что-то новое. Это движение от традиционного поиска к платформам, таким как TikTok, которые работают совершенно иначе. Кроме того, в последнее время было много шумихи вокруг AI, и честно говоря, я думаю, что мы сейчас входим в фазу, когда этот ажиотаж начинает спадать – немного похоже на спад, который вы видите, когда любая новая технология достигает зрелости, как описано в модели принятия технологий Джеки Фенн.

Что означает персонализация сегодня

Персонализация в маркетинге означает создание контента, предложений и впечатлений, которые специально адаптированы к каждому клиенту, используя имеющуюся у вас информацию о нём.

Поисковые системы адаптируют результаты и функции, отображаемые на страницах поиска, для каждого пользователя, основываясь на таких вещах, как их предыдущая активность и другие сигналы, такие как:

  • Шаблоны данных.
  • Предполагаемые интересы.
  • Местоположение.
  • Поведение при поиске.
  • Тип устройства.
  • Язык.
  • Основанная на искусственном интеллекте память (которая обсуждается ниже).

Как цифровой маркетолог, я знаю, что поисковые системы стремятся предоставить людям то, что они ищут, и удержать их внимание. В наши дни люди ищут информацию не только в Google – они используют голосовой поиск, ИИ-ассистентов и всевозможные другие платформы. Из-за этого редко кому-то встречаются *exact* одинаковые результаты поиска, даже если они вводят одинаковые ключевые слова. Например…

  • Любитель кулинарии, ищущий [apples], может увидеть контент, связанный с едой.
  • Технически подкованный пользователь может увидеть новости о продуктах Apple.

Результаты поиска могут меняться в зависимости от вашего местоположения и того, кто осуществляет поиск. Такие функции, как раздел «Люди также спрашивают» и фильтры, не всегда одинаковы — они могут различаться в зависимости от местоположения, языка или того, как люди обычно нажимают на результаты. Иногда эти функции могут вообще не отображаться. Например, если вы ищете «вотум недоверия» в Испании и Великобритании, вы увидите разные фильтры, лучшие результаты, и раздел «Люди также спрашивают» может не появиться в Великобритании.

AI-платформы теперь способны запоминать, что было сказано ранее в разговоре. Инструменты, такие как AI Mode, Gemini, ChatGPT и Copilot, используют эту «память на основе сеанса», чтобы создавать более естественные и плавные взаимодействия, где каждый вопрос опирается на предыдущие. Иногда они даже ссылаются на более ранние части обсуждения.

Крайне важно, чтобы результаты были проверены и доработаны человеком перед их использованием, обеспечивая точность и качество. Этот процесс, называемый ‘human-in-the-loop’, помогает выявлять ошибки и повышать производительность.

Как технически работает персонализация

Персонализация работает на многих различных уровнях. Знание этих уровней помогает маркетологам определить, где они могут оказать влияние.

1. Особенности и макет SERP

Как цифровой маркетолог, я заметил, что Google и Bing постоянно меняются. Они адаптируют страницы результатов поиска – такие вещи, как Featured Snippets, блоки People Also Ask, видео и новостные разделы – основываясь на множестве факторов. Это не универсальный подход! Они учитывают ваши предыдущие поисковые запросы, какое устройство вы используете, как вы взаимодействуете с результатами и даже более широкие рыночные тенденции, чтобы решить, что показывать и когда. Таким образом, то, что вы видите, может сильно меняться в зависимости от вашего поведения и того, что Google или Bing думают, что вы *пытаетесь* найти.

2. AI Overviews, AI Mode, And Bing Copilot

AI платформы могут:

  • Суммируйте контент с нескольких URL-адресов.
  • Адаптируйте тон и глубину на основе поведения пользователя.
  • Персонализируйте последующие предложения.
  • Интегрируйте шаблоны, усвоенные в ходе сессии или даже предыдущих сессий.

Видимость теперь включает упоминание в сводках, создаваемых ИИ. Текущие закономерности показывают, что это зависит от:

  • Четкая структура сайта и URL-адресов.
  • Фактическая точность.
  • Сильные сигналы сущностей.
  • Онлайн-кредитоспособность.
  • Свежий, легко воспринимаемый контент.

3. Структурированные Данные и Консистентность Сущностей

Когда алгоритмы действительно понимают бренд, они могут предоставлять более релевантные и персонализированные результаты поиска. Использование schema markup предотвращает путаницу, когда различные региональные версии веб-сайта могут быть ошибочно идентифицированы как отдельные бренды.

Bing использует Microsoft Graph для связи деловой информации с другими продуктами Microsoft, помогая структурированным данным достичь более широкой аудитории.

4. Контекстные окна и память ИИ

Большие языковые модели, или БЯМ, создают впечатление запоминания вещей, используя «контекстное окно». Это окно представляет собой ограниченный объем текста, который модель может обработать за один раз, измеряемый в единицах, называемых токенами – по сути, частями слов. Эта способность позволяет БЯМ поддерживать ощущение преемственности в разговорах.

Это имеет некоторые важные последствия:

  • Семантическая согласованность имеет значение.
  • Тон должен быть унифицированным на всех рынках.
  • Сообщения должны быть последовательными во всех форматах контента.

После того, как ИИ связывает бренд с определенной идеей или темой, он склонен запоминать эту связь в течение некоторого времени – хотя мы точно не знаем, как долго. Вероятно, это объясняет, почему большие языковые модели предпочитают использовать новую информацию, помогая им поддерживать достоверность и точность.

5. Рекомендации

Интернет-магазины и веб-сайты с большим количеством контента используют системы рекомендаций, чтобы предлагать вещи, которые могут понравиться людям, основываясь на их действиях на сайте. Это делает взаимодействие более плавным и удерживает посетителей дольше.

Преимущества персонализации

Когда персонализация работает, пользователи и бренды могут извлечь выгоду из:

  • Снижение трения для пользователей.
  • Повышенная удовлетворенность пользователей.
  • Улучшенные коэффициенты конверсии.
  • Более сильное вовлечение.
  • Более высокий CTR.

Обеспечение отличного опыта взаимодействия на всех платформах может значительно увеличить ценность, которую клиент приносит в течение всего периода сотрудничества с вашим бизнесом. Но эти улучшения зависят от построения доверия и предоставления надежного обслуживания каждый раз.

Потенциальные недостатки

Как человек, который годами разрабатывает веб-сайты и работает с онлайн-маркетингом, могу сказать вам, что персонализация — это фантастически, но она не обходится без препятствий. Не позволяйте этим остановить вас от персонализации — это просто вещи, о которых нужно подумать при планировании глобального подхода. Вот что я всегда держу в голове:

  • Информационные пузыри уменьшают воздействие разнообразных точек зрения и конкурирующих брендов.
  • Опасения по поводу конфиденциальности растут, поскольку платформы полагаются на всё большее количество поведенческих и демографических данных.
  • Снижение разнообразия результатов затрудняет появление новых или небольших брендов.
  • Глобальные шаблоны теряют эффективность, когда рынки ожидают локальные нюансы.

Когда бренды используют одинаковые маркетинговые материалы в разных странах, не адаптируя их, они часто становятся менее эффективными. Это происходит потому, что культурные различия, местные контексты и различные потребности клиентов играют значительную роль. Поскольку способ совершения покупок также отличается от страны к стране, адаптация маркетинга к каждому конкретному потребителю – гиперперсонализация – является ключом к успеху.

Сегодня для брендов крайне важно тщательно исследовать и планировать, если они хотят оставаться заметными и строить положительную репутацию на международных рынках.

Управление персонализацией между командами и каналами

В настоящее время модели ИИ часто предпочитают информацию из хорошо известных и чётко организованных брендов и веб-сайтов. Если бренд не так легко узнаваем в интернете, то вероятность того, что он будет включен при создании ИИ сводок, снижается.

Эффективный цифровой маркетинг и SEO зависят от чётко определённых внутренних процедур. Если команды не сотрудничают, вы, вероятно, увидите ошибки в ваших данных, контенте и веб-сайте, что в конечном итоге приведёт к непоследовательным результатам в поисковой выдаче и персонализированном опыте.

Общие проблемы включают в себя:

  • Слабое глобальное выравнивание.
  • Переводы, в которых отсутствует локальная релевантность.
  • Конфликтующая схема разметки.
  • Локальные страницы ранжируются по неправильному запросу.
  • Важные локальные ключевые слова игнорируются.

Ниже представлена структура, помогающая организациям управлять персонализацией на различных рынках и каналах.

1. Общие цели и понимание между командами

Многие проблемы в поиске и маркетинге можно избежать, если команды согласны с общим фундаментом:

  • Бизнес и проектные цели.
  • Проблемы на разных рынках.
  • Ищите разработки на различных рынках.
  • Сегментация аудитории.
  • Интегрированная аналитика по всем каналам.
  • Потоки данных, соединяющие глобальные и локальные команды.
  • Разработки в области ИИ.

2. Усильте технические элементы вашего веб-сайта

Как человек, который разрабатывает веб-сайты уже некоторое время, я усвоил, насколько важно обеспечить надёжную техническую основу вашего сайта. Это означает структурирование всего таким образом, чтобы и поисковые системы, *и* новые модели ИИ – такие, как те, которые лежат в основе чат-ботов – могли легко понять, о чём ваш бренд, независимо от местонахождения вашей аудитории. Если вы этого не сделаете, вы рискуете тем, что мы называем «смещение сущности» – по сути, ИИ путается в том, *кто* вы и что предлагаете, что может серьёзно навредить вашему присутствию в сети.

  • Структура веб-сайта.
  • Разметка схемы на соответствующих разделах.
  • Сильная структура на странице.
  • Сильная внутренняя перелинковка.
  • Соответствующий hreflang.

3. Оптимизируйте под контентные кластеры и намерения пользователя, а не под ключевые слова.

То, как вы организуете свой веб-сайт, имеет большое значение. Объединение связанного контента вместе облегчает посетителям и поисковым системам понимание, а также позволяет создать более персонализированный опыт.

4. Используйте данные первого уровня для персонализации опыта на сайте.

Как человек, который создавал и управлял веб-сайтами на протяжении многих лет, могу сказать вам, что понимание того, как люди используют ваш *внутренний* поиск и что происходит, когда пользователи вошли в систему, имеет решающее значение. Это дает вам удивительные представления об их поведении, позволяя составить карту того, как они перемещаются по вашему сайту. Это, в свою очередь, позволяет вам показывать им более релевантный контент и действительно понимать *что* они пытаются достичь – это сильные сигналы намерения, на которые вы можете реагировать.

Первые данные могут поддерживать:

  • Персонализированные рекомендации товаров.
  • Динамические фильтры.
  • Автоматические предложения на основе истории просмотров.

5. Поддерживайте единообразие на всех каналах.

Как SEO-эксперт, я всегда говорю клиентам, что бесперебойный пользовательский опыт является ключом к действительно эффективной персонализации. Подумайте о поиске как об *одной* части этого пазла – он должен быть согласован со всем остальным. Чтобы этого достичь, нам нужно убедиться, что такие вещи, как общий тон, структура контента, используемые сообщения и собираемые данные, идеально согласованы во всех точках взаимодействия. Фрагментированный опыт больше не подходит; люди ожидают последовательности.

  • Социальные платформы.
  • Email.
  • Мобильные приложения.
  • Веб-сайты и поиск по сайту.

Чёткие и последовательные УТП должны быть видны повсюду.

6. Укрепите восприятие своего бренда.

В современном переполненном онлайн-мире брендам необходимо зарабатывать положительные упоминания и укреплять свою репутацию. Ключ к успеху – подчеркивать свои сильные стороны и постоянно публиковать высококачественный, хорошо исследованный контент, который предоставляет ценные данные для вашей аудитории – это классическая PR-стратегия, которая все еще работает.

Заключение: Превращение персонализации в преимущество

Закон Конвея — принцип, согласно которому дизайн системы отражает структуру коммуникации организации — особенно актуален в современном поисковом пространстве. Когда команды работают независимо, это часто приводит к разрозненному контенту, противоречивой информации и непоследовательному опыту для пользователей. Функции персонализации могут фактически усугубить эти проблемы, либо не используя AI эффективно, либо распространяя неточную информацию.

Понимание того, как персонализация влияет на то, что видят люди, насколько они доверяют бренду и как они действуют в сети, позволяет компаниям создавать последовательный и понятный опыт для своих клиентов, вместо того, чтобы оставлять их в замешательстве или в растерянности.

В наши дни достижение успеха – это не просто достижение высоких позиций в Google. Речь идет о глубоком понимании *того*, как люди ищут информацию, как искусственный интеллект обрабатывает и представляет контент, как ваш бренд обсуждается в сети, и насколько эффективно ваша команда работает вместе, чтобы донести последовательное сообщение везде.

Как SEO-эксперт, я своими глазами убедился, что в современном мире персонализированного поиска успех бренда зависит от безупречной координации. Уже недостаточно просто *быть* найденным; вам необходимо последовательное и чёткое сообщение бренда. Это означает сильную внутреннюю согласованность *и* унифицированный подход на всех ваших международных рынках. В конечном счёте, бренды, которые действительно процветают, — это те, которые создают сильное, узнаваемое восприятие в сознании своей аудитории.

Смотрите также

2026-01-07 16:43

Google Ads использует новую AI-модель для выявления мошеннических рекламодателей

Google недавно опубликовала подробности об обновленной системе искусственного интеллекта, которую они используют для выявления мошеннической активности в Google Ads. Согласно их исследованиям, опубликованным 31 декабря 2025 года, этот новый ИИ уже запущен и значительно улучшает обнаружение мошенничества – более чем на 40% – при этом сохраняя очень высокий уровень точности (99,8%) для определенных политик.

ALF: Advertiser Large Foundation Model

ALF, или Большая Фундаментальная Модель Рекламодателя, — это новый ИИ, выпущенный 31 декабря 2025 года. Он предназначен для понимания различных типов контента — текста, изображений и видео — и учитывает такие факторы, как продолжительность активности аккаунта, платежная информация и прошлые результаты, чтобы предоставлять аналитические данные.

Исследователи отмечают, что хотя каждый из этих факторов сам по себе может не казаться подозрительным, рассмотрение их всех вместе дает более четкое представление о том, что делают рекламодатели и почему.

Одной из самых больших проблем в этом мире цифровой рекламы является понимание того, чего пытаются достичь рекламодатели и как они действуют. Знание этого необходимо для таких вещей, как показ людям релевантной рекламы и выявление мошеннического или неуместного контента.

Как SEO-эксперт, я узнал, что решение сложных проблем с ранжированием означает изучение *всего*. Мне нужно анализировать все виды данных – не только основы, такие как срок активности аккаунта или информация о выставлении счетов. Я также углубляюсь в сами объявления – текст, изображения и видео – и в то, что находится на целевых страницах, на которые эти объявления ведут. Речь идет о полной картине, а не об изолированных фрагментах.

Рассмотрим следующее: рекламный аккаунт, созданный совсем недавно, продвигающий популярный бренд с помощью текста и изображений, и одна неудачная попытка списания средств с кредитной карты. Хотя любая из этих вещей сама по себе не является необычной, вместе они явно указывают на потенциальную мошенническую деятельность.

Исследователи решают три задачи, которые предыдущие системы не могли преодолеть:

Данные рекламодателей не являются однородными – они поступают во многих различных формах. Некоторые данные организованы и легко категоризируются, например, как долго рекламодатель активен или его способ оплаты. Другие данные менее структурированы, такие как изображения, текст и видео, которые они используют в рекламе. Кроме того, с каждым рекламодателем связано огромное количество информации – сотни или даже тысячи точек данных. Эта сложность затрудняет эффективную работу стандартных методов анализа данных.

Как цифровой маркетолог, я часто имею дело с огромными объемами креативных материалов – представьте себе тысячи изображений и видео. Реальной проблемой, с которой мы столкнулись в старой системе, был потенциал скрытия вредоносных материалов внутри этих тысяч легитимных файлов. Это было как искать иголку в стоге сена, и сам масштаб задачи подавлял предыдущую настройку. По сути, злоумышленники могли незаметно добавить пару вредоносных файлов среди тонн хороших, и нам было трудно их обнаружить.

Системе необходимо надёжно и точно идентифицировать потенциально злоумышленников. Крайне важно, чтобы оценки достоверности, которые она предоставляет, были надёжными, поскольку ошибочная пометка легитимного рекламодателя может нанести ущерб его бизнесу. В идеале, система должна стабильно хорошо работать, не требуя частых корректировок или исправлений.

Конфиденциальность и безопасность

ALF изучает потенциально конфиденциальную информацию, такую как данные выставления счетов и сведения об учетных записях, но он разработан с надежной защитой конфиденциальности. Прежде чем будет проведен какой-либо анализ, вся информация, которая может идентифицировать человека, удаляется. Это означает, что ALF выявляет потенциальные риски, анализируя, как используются учетные записи, а не используя личные данные.

Секретный соус: как он выявляет выбросы

ALF улучшает свою способность выявлять проблемы, используя метод под названием «Inter-Sample Attention». Вместо того чтобы рассматривать каждого рекламодателя по отдельности, он группирует их вместе и сравнивает, как они взаимодействуют. Это помогает ИИ понимать типичные закономерности среди всех рекламодателей, что делает его лучше в распознавании необычной активности, которая может указывать на проблему.

Alf Outperforms Production Benchmarks

Исследователи обнаружили, что их тесты демонстрируют, что ALF работает лучше, чем тщательно оптимизированная, в настоящее время используемая система.

Наши тесты демонстрируют, что ALF работает намного лучше, чем наша существующая система, и также достигает отличных результатов на стандартных публичных тестах. При использовании в реальной обстановке ALF значительно улучшает как точность, так и полноту своих результатов. В частности, он увеличил полноту более чем на 40% для одной важной задачи и достиг точности 99.8% по другой.

Это показывает, что ALF может производить реальные, заметные улучшения в практическом, повседневном использовании – не только в тестировании или контролируемых условиях.

Мы подтвердили, что этот метод работает хорошо, сравнив его с высокооптимизированной существующей системой. Эта система была тщательно разработана посредством всестороннего тестирования различных типов моделей и настроек, включая глубокие нейронные сети, комбинированные модели, градиентный бустинг решающих деревьев и логистическую регрессию с различными комбинациями признаков.

Хотя ALF — более крупная модель, и ей требуется немного больше времени для ответа, её скорость всё ещё вполне приемлема для наших нужд, и мы можем сделать её ещё быстрее с помощью специализированного оборудования. Тестирование показывает, что ALF значительно лучше выявляет ключевые риски, чем наша предыдущая система. Это улучшение связано с тем, что ALF может понимать полный контекст информации, чего не могут более простые системы. Эта выгода оправдывает компромисс, поскольку ALF в настоящее время обрабатывает миллионы запросов каждый день.

Задержка (Latency) – это время между запросом и ответом системы. Наши исследования показывают, что ALF незначительно увеличивает эту задержку по сравнению с нашей предыдущей системой, но время ответа всё ещё достаточно быстрое для практического использования. Важно отметить, что ALF уже обрабатывает большое количество запросов и значительно улучшает наши возможности по обнаружению мошенничества.

Улучшенное обнаружение мошенничества

ALF, новая система, разработанная исследователями, в настоящее время используется в Google Ads для выявления рекламодателей, нарушающих правила рекламы Google. Пока она не используется в других продуктах Google, таких как Search или Google Business Profiles. Однако команда предполагает, что они могут изучить, как изменения во времени могут помочь выявить новые типы нарушений, а также как ALF можно использовать для лучшего понимания аудитории и улучшения дизайна рекламы.

Прочитайте оригинальную PDF-версию научной работы:

ALF: Advertiser Large Foundation Model for Multi-Modal Advertiser Understanding

Смотрите также

2026-01-07 13:40