Google AI Overviews стремительно распространяется в 9 отраслях.

Недавние данные от BrightEdge показывают, что, несмотря на растущее присутствие AI Overviews, традиционные результаты поиска всё ещё отображаются чуть более чем для половины всех запросов. Это говорит о том, что AI Overviews не полностью заменили стандартный опыт поиска.

AIO Grows 52% In One Year

С февраля 2025 года по февраль 2026 года AI Overviews (AIO) появлялись в результатах поиска на 58% чаще. Сектор образования показал наибольший рост: AI-результаты поиска запускались 18% запросов в мае 2025 года, увеличившись до 83% к декабрю 2025 года.

Мы также увидели огромный рост результатов поиска на основе ИИ для вопросов о B2B-технологиях, увеличившись с 36% до 82%. Рестораны стали особенно сильным драйвером этой тенденции: результаты ИИ появлялись в 78% поисковых запросов, по сравнению с 10% ранее.

С 2024 года запросы информации о здоровье часто получают ответы, созданные с помощью искусственного интеллекта – примерно в 72% случаев. К декабрю 2025 года это число выросло до впечатляющих 88%. Это говорит о том, что люди считают объяснения ИИ по темам здоровья полезными, поскольку система ИИ уделяет приоритетное внимание удовлетворению потребностей пользователей.

Эти результаты соответствуют отчёту OpenAI от января 2026 года, который показал, что более 5% всех разговоров на платформе связаны с темами здравоохранения, и что четверть еженедельных активных пользователей ChatGPT по всему миру задают вопросы, связанные со здоровьем.

Как SEO-эксперт, специализирующийся на сфере здравоохранения, я наблюдаю огромный сдвиг – это не *только* пациенты обращаются к ИИ за информацией о здоровье. Недавнее исследование Брукингского института фактически показало, что более половины – 53% – медицинских работников *уже* используют инструменты ИИ в своей работе. Это огромная тенденция, которая влияет на то, как люди ищут информацию о здоровье в Интернете, и это то, что нам нужно учитывать при оптимизации контента для этой отрасли.

Девять отраслей, переживающих наибольшее расширение:

  1. Здравоохранение
  2. B2B Tech
  3. Образование
  4. Insurance
  5. Развлечения
  6. Travel
  7. eCommerce
  8. Финансы
  9. Рестораны

Органический поиск удерживает небольшое большинство.

Несмотря на то, что AI-поиск быстро развивается, традиционные результаты поиска всё ещё отображаются более чем для половины всех запросов – около 52%. Однако мы наблюдаем сдвиг, особенно в таких областях, как бизнес-для-бизнеса (B2B), где более ценные поисковые запросы теперь выполняются с помощью AI, а не традиционными методами.

Это не так уж и удивительно, если учесть, как быстро развивается технология. Всегда есть чему поучиться, и иногда разговор — гораздо лучший способ понять что-то, чем просто список ссылок — подумайте о том, как часто информация о здравоохранении лучше всего объясняется.

Что стимулирует рост для ресторанов? Это основано на исследованиях? Если да, то это говорит о том, что отсутствует информация, которую могли бы предоставить либо рецензенты, либо сами рестораны.

Несмотря на рост AI Overviews, которые теперь появляются почти для половины всех поисковых запросов, большинство запросов – чуть больше половины – по-прежнему отображают стандартную страницу из десяти синих ссылок. Традиционные результаты поиска не исчезли, даже с увеличением использования AI.

Поиск — это многофакторная аутентификация.

Поиск работает одним из двух основных способов, в зависимости от того, что вы ищете. Иногда вы увидите краткое содержание, созданное искусственным интеллектом, в верхней части страницы результатов, а в других случаях вы просто получите список ссылок. Это показывает, что, хотя краткие содержания, созданные искусственным интеллектом, распространены, поиск не изменился полностью – это все еще сочетание обоих подходов.

То, как сейчас разделяются результаты поиска, — это не новость. Это происходило постепенно в течение последних двух десятилетий, с тех пор как Google начал предлагать локальный поиск, Google Maps и результаты покупок. В то время как традиционная страница с десятью простыми текстовыми ссылками угасала с начала 2000-х годов, мир SEO действительно заметил этот сдвиг в 2014 году с представлением Featured Snippets. Эти сниппеты сигнализировали о том, что Google отдает приоритет прямым ответам, а не просто перечислению ссылок, фактически положив конец эпохе ‘десяти синих ссылок’.

Разделение между поиском на основе искусственного интеллекта и традиционными поисковыми запросами, используемыми пользователями Google, показывает, что поиск постоянно меняется, чтобы больше сосредоточиться на предоставлении прямых ответов.

AI Overviews меняет поисковый опыт.

Как человек, который создаёт и наблюдает за веб-сайтами на протяжении многих лет, я заметил, что AI Overviews от Google появляются не для *каждого* поиска, но когда они появляются, они действительно всё меняют. Это трудно не заметить – они обычно отображаются как большой блок информации прямо в верхней части результатов поиска, отодвигая обычный список ссылок дальше вниз по странице. Это значительное изменение в том, как представляются результаты, и вы определённо можете увидеть влияние.

Отчёт показывает, что AI Overviews достаточно объёмные, часто превышают 1200 пикселей в высоту. Поскольку высота большинства экранов настольных компьютеров составляет около 900 пикселей, это означает, что первый традиционный результат поиска появляется далеко внизу страницы, ниже того, что сразу видно. AI Overviews могут занимать весь экран и даже требовать прокрутки, прежде чем пользователи смогут увидеть что-либо ещё.

Как SEO-эксперт, я внимательно слежу за AI Overviews от Google. Они появляются не для *каждого* поиска, но когда появляются, они действительно доминируют на странице, сильно отодвигая типичный список ссылок. Это говорит мне о том, что люди привыкают находить информацию через беседы с ИИ, и поиск — это больше не просто *поиск* ссылок — речь идет о получении прямых ответов и открытии нового. Это серьезный сдвиг в том, как нам нужно думать об SEO.

AI Overviews Не Отражает Позиции в Результатах Поиска на Первой Странице.

FastSearch от Google работает, быстро находя лучшие органические результаты поиска по нескольким связанным вопросам одновременно, основываясь на одном разговорном запросе. Затем он использует эти лучшие результаты для генерации ответа.

Тот факт, что ваш веб-сайт находится вверху обычных результатов поиска, не гарантирует его включения в индекс AIO, и наоборот, отсутствие на первой странице результатов поиска не автоматически лишает вас возможности быть рассмотренным для AIO. Хотя между этими двумя факторами существует взаимосвязь, они являются отдельными.

Источники, представленные в AI Overviews, поступают из контента, проиндексированного Google, но они не совпадают с результатами, которые вы увидите на обычной поисковой странице. Этот процесс аналогичен тому, как Google обрабатывает сложные вопросы: один подробный запрос разбивается на несколько более мелких поисков, каждый из которых возвращает три типичных поисковых результата.

Хотя между AI Overviews и традиционными результатами поиска есть некоторое совпадение, это становится более заметным при просмотре топ-100 результатов вместо только топ-10. Это совпадение постепенно увеличивалось с течением времени. AI Overviews извлекает информацию из Интернета, но часто выделяет другой контент, чем тот, который обычно занимает лидирующие позиции в традиционном поиске. Это означает, что видимость в AI Overviews связана с тем, насколько хорошо страница работает органически, но это не то же самое, что оказаться на первой странице результатов поиска.

Нам нужно изучить это дальше, чтобы понять, как это влияет на создание контента и как контент ранжируется в результатах поиска.

Рост продолжается наряду с постоянной ориентацией на органический подход.

Недавний отчёт BrightEdge указывает на то, что AI Overviews всё ещё набирают популярность, а не стабилизируются. Их присутствие увеличилось на 58% по сравнению с прошлым годом, и теперь они появляются почти в половине всех отслеживаемых поисковых запросов.

В то время как количество общих ссылок среди топ-100 результатов поиска немного увеличилось, объём пересечений только в топ-10 результатах остался примерно таким же.

Исследование не указывает на то, что люди полностью переходят с обычных поисков Google на поиски с использованием ИИ, но оно показывает, что ИИ-поиск растёт. В настоящее время традиционные результаты поиска всё ещё отображаются для большинства запросов, хотя и с небольшим перевесом. В будущем было бы полезно понять, для каких типов запросов всё ещё используется классический формат – обычно ли это для локальных предприятий или прямых посещений веб-сайтов?

По мере того, как AI Overviews появляются всё чаще и занимают всё большую часть экрана, традиционные результаты поиска становятся гораздо менее заметными.

Смотрите также

2026-03-02 00:40

Bing добавляет GEO в официальные рекомендации и расширяет определения злоупотреблений ИИ.

Microsoft обновила свои рекомендации для владельцев веб-сайтов, чтобы объяснить, как контент отображается не только в стандартных результатах поиска Bing, но и в ответах, создаваемых ее ИИ-чат-ботом, Copilot.

Предыдущее объяснение охватывало, как Bing находит и ранжирует веб-сайты. Эта обновленная версия расширяет это, чтобы включить Copilot и результаты из grounding API, рассматривая эти источники как дополнительные способы определения релевантной информации.

Новые указания по метадирективам для ИИ

Раньше, руководства Bing лишь в общих чертах обсуждали мета-теги роботов. Теперь они чётко объясняют, как каждый тег влияет на опыт, созданный ИИ.

NOARCHIVE предотвращает использование Copilot вашего контента при создании ответов или предоставлении источников. NOCACHE ограничивает Copilot использованием только URL-адреса веб-страницы, её названия и короткого описания. Использование DATA-NOSNIPPET или NOSNIPPET может снизить качество цитирования источников Copilot.

Атрибут data-snippet управляет текстом, который Bing показывает или на который ссылается. Если вы хотите, чтобы Copilot предоставлял подробные цитаты, избегайте использования настройки NOCACHE для вашего контента.

Это расширяет запуск Bing в октябре data-nosnippet, который позволяет веб-сайтам точно определять, какой контент отображается в результатах поиска и AI-powered сводках.

GEO В Официальных Руководствах

Ранее наши рекомендации не касались конкретно привязки ИИ к реальности как области для улучшения. Обновленная версия теперь признает и называет это ключевой областью для оптимизации.

Руководство Google теперь конкретно затрагивает вопрос «Генеративной оптимизации для поисковых систем (GEO)», который касается обеспечения возможности использования вашего контента в качестве источника в ответах на основе искусственного интеллекта. Подобно тому, как SEO не гарантирует верхние позиции в результатах поиска, GEO не гарантирует, что ваш контент будет процитирован искусственным интеллектом — он просто повышает вероятность того, что он будет рассмотрен.

Microsoft недавно упомянула ‘GEO’ в своем объявлении о панели мониторинга производительности ИИ. Теперь они официально включили его в свои политики, рассматривая его как любой другой инструмент.

AI Content Language Softened

Контент, сгенерированный машиной, относится к информации, созданной компьютерами или автоматизированными системами, без какого-либо участия человека. Этот контент часто имеет низкое качество и предназначен для манипулирования поисковыми рейтингами. Сайты, использующие этот тип контента, могут столкнуться с санкциями.

Теперь это читается:

Контент, создаваемый быстро и в больших количествах, без тщательной проверки или редактирования, часто бесполезен, неточен или неоригинален, и поисковые системы могут не включать его в свои результаты.

Это изменяет акцент с контента, просто созданного машинами, на контент, не прошедший проверку человеком, что соответствует новым правилам Google против контента, предназначенного главным образом для обмана поисковых систем и повышения его рейтинга.

New Grounding Optimization Guidance

При написании текстов для ИИ будьте прямолинейны и излагайте факты явно, вместо того чтобы намекать на них. Это помогает обеспечить возможность проверки информации на точность. Также всегда используйте чёткие и последовательные имена для людей и вещей – избегайте любых запутанных или расплывчатых ссылок.

Bing предполагает, что каждая веб-страница должна быть посвящена одной основной теме и представлять наиболее важные детали в начале. Страницы, которые концентрируются на одной теме, с большей вероятностью появятся в результатах поиска Bing.

Расширенные определения злоупотреблений

Мы обновили разделы о вредоносном поведении, включив как распространенные методы спама, так и новые способы, которыми люди могут попытаться манипулировать системами искусственного интеллекта.

Мы обновили раздел о переспаме ключевыми словами. Ранее он назывался «Переспам ключевыми словами ИЛИ загрузка страниц нерелевантными ключевыми словами», но теперь называется «Переспам ключевыми словами и искусственно сконструированный язык». Это изменение отражает тот факт, что в этом разделе теперь рассматривается контент, созданный для манипулирования цитированиями или получения ответов от AI, а не только для улучшения позиций в поисковых системах.

Инъекция запросов, ранее лишь вкратце упомянутая в более ранних правилах, теперь имеет свой собственный раздел – «Инъекция запросов и манипулирование ИИ», – который подробно описывает усилия по нарушению работы языковых моделей Bing или Copilot.

Что было удалено

Недавнее обновление удалило несколько технических деталей, таких как подробные объяснения форматов карт сайта, принципы работы JavaScript-рендеринга, способы пометки контента для SafeSearch и информацию о неправомерном использовании функций социальных сетей.

Почему это важно

Функция мета-директивы позволяет вам контролировать, как ваш контент используется в ответах Copilot, и чётко объясняет преимущества и недостатки каждой настройки.

Как SEO-специалист, я вижу изменение в том, как мы измеряем успех. Bing отмечает, что меньшее количество кликов не *всегда* означает, что ваш контент ранжируется ниже. Теперь ваш контент может появляться в таких функциях, как Copilot, в качестве источников или вспомогательной информации, даже *без* прямого клика по нему. Именно поэтому я советую клиентам уделять меньше внимания данным о кликах и больше — отслеживанию показов и тому, имеет ли их контент право использоваться в качестве цитирования — это реальные показатели видимости сейчас.

Заглядывая в будущее

Microsoft тихо обновила свои рекомендации для вебмастеров. Вы можете найти пересмотренную версию непосредственно на странице Руководства для вебмастеров Bing, а архивную копию старой версии можно найти на Wayback Machine.

Это обновление последовало за выпуском Bing AI Performance dashboard две недели назад. Google заявляет, что AI Overviews и AI Mode используют те же элементы управления предварительным просмотром, что и обычный Поиск – такие вещи, как предотвращение сниппетов, ограничение длины сниппета или блокировка индексации – но они еще не предоставили подробную информацию о том, как другие теги, такие как те, которые контролируют архивирование или кэширование, влияют на эти AI-функции.

Смотрите также

2026-02-27 23:42

Обновление основных алгоритмов Discover от Google завершило развертывание.

Google завершила развертывание основного обновления Discover по состоянию на 27 февраля в 2:02 по тихоокеанскому времени, согласно панели статуса поиска.

Процесс запуска занял около 22 дней, начавшись 5 февраля. Это примерно на 8 дней дольше, чем первоначальные ожидания Google в две недели.

Google сообщила об обновлении в своем блоге Search Central, отметив, что это первый случай, когда они конкретно идентифицировали основной апдейт как влияющий на Discover.

Google объявила о трёх основных целях этого обновления: приоритизировать локальный контент с веб-сайтов в вашей стране, минимизировать некачественные, привлекающие внимание заголовки и вводящие в заблуждение ссылки, а также выделять хорошо исследованные, актуальные статьи из надёжных источников.

Сначала новая функция была доступна только пользователям, использующим английский язык и находящимся в США. Google планирует сделать её доступной по всему миру и на всех языках в течение следующих нескольких месяцев, но точные даты не объявлял.

Что показывают данные третьих сторон.

Раннее отслеживание со стороны третьих лиц даёт первый взгляд на то, что изменилось во время развёртывания.

NewzDash проанализировал, как недавнее обновление повлияло на онлайн-производительность. Они сравнили данные за неделю до обновления (25-31 января) с неделей после (8-14 февраля) для 1000 самых популярных веб-сайтов и статей в США, Калифорнии и Нью-Йорке.

Как мы сообщали ранее на этой неделе, данные указывали на три шаблона.

Данные NewzDash показывают более персонализированные новостные ленты на основе местоположения. Новости с веб-сайтов Нью-Йорка стали появляться гораздо чаще для пользователей в Нью-Йорке, а истории из Калифорнии были более распространены среди пользователей из Калифорнии. Хотя большинство главных новостей по-прежнему распространяются между обоими штатами, каждая лента теперь включает заметное количество местных новостей в дополнение к национальным заголовкам.

Становится всё сложнее для веб-сайтов занимать высокие позиции в результатах поиска. После недавнего обновления количество уникальных веб-сайтов, появляющихся в топ-1000 результатов в США, уменьшилось с 172 до 158. Мы наблюдали аналогичное падение в Калифорнии, снизившись с 187 до 177. Однако издатели из Нью-Йорка сохранили относительно стабильное присутствие.

Спектр затронутых тем увеличился, но количество представленных различных издателей уменьшилось. Хотя Discover теперь показывает контент из большего количества категорий в целом, он в основном выделяет меньше источников. Это говорит о сосредоточении на более широком охвате тем, но с концентрацией лучших позиций у ограниченного числа издателей.

Согласно NewzDash, публикации от официальных организаций на X.com (ранее Twitter) появляются в топ-100 рекомендаций Discover в США все чаще – увеличившись с 3 до 13. Эти публикации в основном исходят от известных новостных организаций. NewzDash отслеживает функцию Discover X с ноября 2025 года и считает, что недавнее обновление стало причиной этого увеличения.

Более широкий контекст

Хотя эти данные не раскрывают причины изменений, внесенных Google в то, как Discover ранжирует контент, они показывают, почему обновление, ориентированное исключительно на Discover, является значительным. Поскольку Discover отправляет издателям так много трафика, любые корректировки в процессе отбора контента напрямую влияют на их доходы.

Почему это важно

Теперь, когда развертывание завершено, владельцы веб-сайтов в США могут использовать Search Console для сравнения эффективности Discover *до* и *после* недавнего обновления. Google рекомендует подождать не менее недели после завершения обновления, прежде чем делать какие-либо выводы, и всегда сравнивать данные с периодом *до* начала обновления.

Данные NewzDash показывают, что издатели, демонстрирующие хорошие результаты, сосредоточены на конкретных местных областях и темах. И наоборот, издатели, которым не хватает четкой экспертизы в определенной области, могли столкнуться со снижением показателей. Хотя Discover расширил спектр охватываемых тем после обновления, меньше веб-сайтов заняли высокие позиции в результатах поиска для США и Калифорнии. Этот сдвиг следует отслеживать по мере поступления новых данных.

Обновление заняло около 22 дней для полного запуска, что превысило первоначальный двухнедельный прогноз Google. Из-за этого часть данных, собранных NewzDash, была собрана во время происходящего обновления. Новый анализ, выполненный после завершения обновления, может выявить другие результаты.

Заглядывая в будущее

Неясно, будет ли Google продолжать выпускать отдельные основные обновления, специально для Discover. Это был первый случай, когда Google определил основное обновление как ориентированное на Discover, поэтому пока неизвестно, станет ли это регулярным явлением.

Помните, что снижение трафика из Discover не указывает на изменение ваших органических позиций в Поиске.

Смотрите также

2026-02-27 17:09

Откройте для себя данные Core Update, советы по Sitemap и риски AI – SEO Pulse

Вот ваше еженедельное обновление SEO! На этой неделе мы рассматриваем, что говорят первоначальные данные о февральском основном обновлении для Google Discover, почему Google иногда может пропускать идеально хороший sitemap и как компании пытаются манипулировать памятью AI-ассистентов.

Вот что важно для вас и вашей работы.

Обнаружено основное обновление: Первичные данные показывают меньше издателей и больше тем.

NewzDash изучил, насколько легко контент из Discover появлялся в результатах поиска Google до и после крупного обновления в феврале. Они проанализировали данные от миллионов пользователей в США, чтобы увидеть влияние обновления.

Как эксперт по поиску, я анализировал влияние недавнего обновления. Мои исследования охватили 1000 лучших веб-сайтов и статей в США, Калифорнии и Нью-Йорке, изучая данные за неделю *до* обновления (25-31 января) и неделю *после* (8-14 февраля). Я обнаружил, что, хотя разнообразие категорий контента увеличилось во всех трех регионах, мы фактически столкнулись с небольшим *снижением* количества уникальных издателей, ранжирующихся в США – с 172 до 158 доменов – и в Калифорнии, где оно снизилось с 187 до 177.

Веб-сайты с локальными доменными именами Нью-Йорка появлялись примерно в пять раз чаще в новостной ленте Нью-Йорка по сравнению с лентой Калифорнии. После обновления контент Yahoo исчез из топ-100 самых популярных элементов, в то время как публикации из проверенных аккаунтов X.com увеличились с трёх до тринадцати в том же списке.

Почему это важно

Недавно Google обновил свой поисковый алгоритм, чтобы отдавать приоритет полезным, подробным статьям из надёжных источников, особенно тем, которые посвящены местным новостям и конкретным темам. Первоначальные данные от NewzDash показывают, что обновление успешно повышает рейтинг локального и тематического контента, хотя и сложно однозначно сказать, снижает ли оно количество кликбейтных заголовков, поскольку простого просмотра заголовков недостаточно, чтобы подтвердить уменьшение сенсационного контента.

Как человек, который разрабатывает веб-сайты уже много лет, я определенно заметил тенденцию, которая совпадает с тем, что мы увидели в основном обновлении в декабре. Кажется, специализированные сайты – те, которые действительно сосредоточены на конкретной нише – начинают превосходить большие, общие сайты. Что интересно, если у сайта есть сильная связь с определенной местной областью, он может показать *лучшие* результаты в этой области, но может увидеть падение своих позиций в других местах. Это похоже на то, что концентрация на своем дворе дает свои плоды, но вы теряете позиции везде, где только можно.

Что говорят люди

Когда Google обновил свои системы и опубликовал новые справочные документы для Discover, SEO-консультант Glenn Gabe из GSQi заметил новую точку, добавленную в руководство – то, что не упоминалось в предыдущей документации Discover. Он поделился своими выводами на X.

Документация Google Discover теперь делает акцент на создании хорошего пользовательского опыта на ваших веб-страницах. Это означает избежание таких вещей, как чрезмерная или навязчивая реклама, а также автоматическое воспроизведение видео или аудио.

В целом, отзывы были неоднозначными. Некоторые люди отмечают увеличение активности в своих новостных лентах, специфичных для штата, в то время как другие сообщили о значительном снижении трафика из ленты Discover.

Мюллер говорит, что Google может пропустить sitemaps без «нового и важного» контента.

Джон Мюллер из Google ответил на вопрос на Reddit о продолжающихся ошибках sitemap в Google Search Console. Владелец веб-сайта проверил журналы своего сервера и подтвердил, что Googlebot успешно получал доступ к sitemap (получая ответ ‘200 OK’), но Search Console продолжал сообщать, что не может получить файл, даже несмотря на то, что XML sitemap был валидным, а инструкции по индексации были верными.

По словам Мюллера, Google необходимо видеть свежий и ценный контент на вашем веб-сайте, чтобы тратить ресурсы на его индексацию. Просто наличие карты сайта недостаточно – Google будет использовать её только в том случае, если считает, что ваш сайт предлагает что-то новое и достойное внимания.

Почему это важно

Ошибки карты сайта в Search Console могут быть сложными для понимания. Они часто появляются, даже если ваш веб-сайт, кажется, работает правильно с технической стороны. Вы можете проверить код своей карты сайта, ответы сервера и правила о том, к каким страницам Google имеет доступ, но всё равно не найти проблему. Это происходит потому, что Google может посчитать, что ваши страницы не заслуживают индексации, даже если всё остальное выглядит нормально.

Роджер Монти, пишущий для Search Engine Journal, отметил, что Джон Мюллер из Google предложил общую идею, но учитывать, что удерживает посетителей на вашем сайте, — хороший способ выявить области для улучшения.

Что говорят люди

В мире SEO продолжается обсуждение о том, какой вес Google придает картам сайта (sitemaps). Некоторые считают, что Google в основном использует их для более крупных сайтов или новостных изданий, и обычно следует по ссылкам для более мелких. Другие отмечают, что Google не наказывает сайты только за наличие карт сайта, которые активно не используются.

Мюллер предложил свежий взгляд на то, как работает индексация, который ранее не был широко обсуждаем.

Microsoft обнаружила отравление памяти ИИ через кнопки «Суммировать».

Исследователи Microsoft обнаружили новую атаку под названием ‘Отравление рекомендаций ИИ’. Она работает, обманывая веб-сайты, заставляя их внедрять скрытые инструкции в кнопки, предлагающие AI-powered сводки. Эти инструкции затем могут манипулировать ответами ИИ.

После анализа ссылок на веб-сайты, обнаруженных в электронных письмах за последние два месяца, исследователи Microsoft обнаружили 50 различных попыток манипулирования системами искусственного интеллекта. Эти попытки, исходящие от 31 компании из 14 различных отраслей, были направлены на популярные инструменты ИИ, такие как Copilot, ChatGPT, Claude, Gemini, Perplexity и Grok. Microsoft обнаружила, что успех этих попыток зависел от конкретной AI-платформы и менялся со временем.

Почему это важно

Вместо того, чтобы сосредотачиваться на более высоких позициях в результатах поиска, некоторые компании теперь пытаются повлиять на рекомендации AI-ассистентов, напрямую добавляя инструкции в долговременную память AI. Microsoft обнаружила, что эти инструкции были созданы с использованием общедоступных инструментов, предназначенных для помощи предприятиям в установлении присутствия в памяти AI, и в одном случае компания не просто попросила AI запомнить их – они встроили полные маркетинговые материалы.

Рекомендации на основе искусственного интеллекта сейчас являются основным направлением для компаний, которые разрабатывают инструменты, чтобы попытаться улучшить свои позиции в этих системах. То, как платформы будут справляться с этими попытками манипулирования, будет иметь решающее значение для поддержания доверия пользователей к получаемым рекомендациям.

Что говорят люди

Исследование привлекло значительное внимание как экспертов по безопасности, так и специалистов в области искусственного интеллекта. Танмай Ганачарья, вице-президент Microsoft по исследованиям в области безопасности, объяснил, как это работает, в интервью с Dark Reading.

Нажатие на кнопку перенаправит пользователя в конкретную область ИИ, связанную с выбранным ИИ-помощником.

Ганачарья также сообщил BankInfoSecurity, что не все платформы одинаково уязвимы:

Из протестированных нами AI-платформ только Copilot, ChatGPT и Perplexity могут активно помнить прошлые взаимодействия. Claude и Grok не сохраняют память, что защищает их от этого конкретного типа проблем с безопасностью.

Некоторые эксперты по маркетингу задаются вопросом, является ли этот подход просто способом быстрого расширения бизнеса, а специалисты по безопасности выразили обеспокоенность по поводу его этических последствий и потенциального ущерба доверию клиентов.

Тема Недели: Сигналы, определяющие видимость, становятся всё сложнее различить.

Все истории на этой неделе сосредоточены на том, что происходит *за пределами* типичных данных, отслеживаемых SEO-специалистами – на скрытых факторах, влияющих на результаты.

Лента Discover от Google теперь выделяет меньше источников по каждой теме, и вы увидите это изменение непосредственно в самой ленте, а не в данных вашей Search Console. Джон Мюллер из Google объяснил, что ошибки при попытке Google получить доступ к вашей карте сайта могут означать, что он уже решил, индексировать ваш контент или нет. Между тем, исследования Microsoft показывают, что некоторые компании пытаются манипулировать тем, как генерируются рекомендации, на фундаментальном уровне.

Становится очевидным, что решения о том, что мы видим, принимаются в областях, на которых мы, по сути, не сосредотачивались.

Для более глубокого понимания этих тем ознакомьтесь с этими недавними материалами.

Смотрите также

2026-02-27 16:11

Обновления рекомендаций по активам и планированию рекламы от Google, негатив от Microsoft – PPC Pulse

Вот ваша еженедельная сводка новостей PPC. На этой неделе мы освещаем последние обновления по рекламным материалам, управлению вашим бюджетом и настройкам поиска для Google Ads и Microsoft Ads.

Google подчеркнул необходимость разнообразных рекламных материалов по мере того, как Search продолжает меняться. Они также объявили об улучшениях в управлении бюджетами для кампаний, использующих расписание показов рекламы. Отдельно, Microsoft представила новую функцию, позволяющую пользователям легко блокировать нежелательные поисковые запросы, и теперь предлагает бета-доступ к ней для Performance Max кампаний.

Каждое обновление затрагивает различные операционные рычаги внутри аккаунта.

Вот что произошло на этой неделе и почему это важно для рекламодателей.

Google Подчёркивает Важность Разнообразия Активов

В последнем эпизоде подкаста Google’s Ads Decoded Джинни Марвин обсуждала дизайн Search-рекламы и то, как пользователи взаимодействуют с ней. К ней присоединились Эбби Батлер, менеджер по продуктам для пользовательского интерфейса рекламы, и Адам Буллок, который руководит пользовательским опытом для Search Ads.

В эпизоде обсуждалось, как поисковая реклама меняется на страницах результатов поиска Google. Батлер объяснил, что эти изменения в форматах рекламы направлены на показ наиболее релевантной рекламы пользователям и рекламодателям, но делают это в большом масштабе.

Батлер заявил:

Эти изменения разработаны для того, чтобы пользователи и рекламодатели видели максимально релевантный контент, и делали это эффективно в большом масштабе.

Она также связала наличие широкого спектра рекламных материалов с возможностью получения большего количества рекламных вариаций и результатов поиска. Это ключевой момент, который многие рекламодатели упускают из виду. Речь идет не только о том, насколько хорошо работает один заголовок; речь идет о предоставлении платформе достаточного количества ресурсов для создания и показа большего разнообразия рекламных дизайнов.

Позже в эпизоде она объяснила, что рекламодатели, предоставляющие больше креативных материалов, имеют больше шансов появиться в различных форматах рекламы и отвечать на более широкий спектр поисковых запросов.

Буллок подчеркнул этот момент с точки зрения дизайна. Он объяснил, что они не просто запрашивают больше рекламных материалов; эти материалы позволят команде дизайнеров создавать инновационные и перспективные рекламные кампании, даже те, которые они еще не представляли.

В эпизоде также обсуждалось, что рекламодателям необходимо учитывать в будущем, особенно по мере того, как поиск эволюционирует, становясь более похожим на разговор и становится более сложным. Батлер объяснил, что спрос на большее количество вариантов контента обусловлен тем, что пользователи теперь делают не просто простые, разовые поиски.

Имея больше ресурсов и данных от рекламодателей, мы можем более эффективно и быстро реагировать на их потребности.

Почему это важно для рекламодателей

Этот эпизод подчеркнул ключевой момент: наличие разнообразного набора ресурсов – это не просто хорошая творческая стратегия – это напрямую влияет на то, квалифицируетесь ли вы для определенных возможностей.

Если Google имеет возможность изменять место отображения заголовков, объединять их со ссылками и дополнительной информацией или использовать более качественные изображения, то повторное использование одного и того же ограниченного набора изображений и текста может ограничить способ и место отображения вашего контента.

Это также означает, что вы не должны оценивать ценность актива исключительно по количеству показов на актив.

Тот факт, что актив не полезен в *каждой* ситуации, не означает, что он не невероятно ценен в правильной. Мы должны сосредоточиться на том, чтобы сделать его адаптируемым к разным поисковым запросам и форматам, а не пытаться заставить его работать идентично везде.

Что говорят профессионалы PPC

Как PPC-специалист, я вижу много того, на что недавно обратила внимание Джинни Марвин – это действительно созвучно той повседневной работе, которой мы все занимаемся в управлении аккаунтами.

Она настоятельно посоветовала рекламодателям уделять приоритетное внимание общим результатам рекламы, а не слишком сосредотачиваться на том, сколько раз появлялась каждая отдельная реклама.

Сосредоточьтесь меньше на том, сколько раз каждое отдельное объявление было показано, и больше на том, насколько хорошо ваши объявления работают в целом.

То, что я слышу от экспертов, заключается в том, что иметь большое *количество* рекламы не так важно, как убедиться, что ваша реклама охватывает все различные вещи, которые люди могут искать. Это особенно актуально сейчас, когда Google показывает рекламу более разнообразными способами на страницах результатов поиска.

Google обновляет бюджетный темп для некоторых пользователей, использующих расписание показов рекламы.

Google недавно уведомила некоторых рекламодателей о том, что способ расходования дневных бюджетов для кампаний изменится, начиная с 1 марта.

В электронном письме объяснялось, что, хотя ваш ежемесячный лимит расходов остается прежним – 30,4 раза от вашего среднего дневного бюджета – Google теперь будет автоматически использовать всю сумму, даже если у вас есть существующий график показов рекламы.

Это не влияет на общие рекламные бюджеты, а скорее на скорость, с которой эти средства могут быть использованы в течение срока, указанного рекламодателями.

Почему это важно для рекламодателей

Компании часто используют планирование рекламы, если у них есть колл-центры, определенные часы работы магазинов или они знают, когда их реклама работает лучше всего.

Если расходы на рекламу будут более тесно привязаны к спросу в режиме реального времени, бюджеты могут быть израсходованы быстрее в периоды высокой активности. Это может помочь некоторым рекламодателям добиться лучших результатов, сосредоточившись на времени, когда люди наиболее склонны совершить покупку.

Однако это также означает, что дневные бюджеты могут исчерпаться раньше запланированного временного окна, чем ожидалось.

Если вы рекламодатель, тщательно контролирующий свой бюджет или внимательно следящий за эффективностью своих кампаний в течение дня, вам следует обратить внимание на это изменение. Планирование рекламы теперь влияет не только на *когда* показываются ваши объявления, но и на *скорость*, с которой тратятся ваши деньги.

Что говорят профессионалы PPC?

Джинни Марвин, работающая в Google и отвечающая за коммуникации по рекламе, подробно объяснила обновление в комментарии к публикации Marketing O’Clock в LinkedIn.

Марвин объяснил, что этот первый запуск предназначен не для всех. Если рекламодатель не получил электронное письмо от Google по этому поводу, его аккаунт еще не был изменен.

Она также объяснила, как обновление влияет на кампании, настроенные на запуск только по выходным.

В настоящее время, с ежедневным бюджетом в $100, предполагаемые ежемесячные расходы составляют $800, исходя из примерно 8 выходных дней в месяц. Это обновление увеличит ежедневный бюджет до $200 в те же 8 дней, что приведет к новому ежемесячному лимиту расходов в $1,600.

Чтобы оставаться в пределах вашего ежемесячного бюджета в $800, уменьшите свой ежедневный бюджет до $50. Поскольку ваша кампания показала, что может справиться с большим, стремитесь последовательно достигать двойной суммы каждый день.

Ами́т Хабра, основатель Hop Skip Media, обратился к Марвину с вопросом, есть ли какие-либо автоматические настройки или скрипты, которые можно использовать для временной остановки кампаний.

Относительно этой корректировки бюджета, меня беспокоит, что это может вызвать проблемы в работе системы под капотом. Если мы внезапно сократим бюджет, пока она пытается потратить двойную сумму, Smart Bidding, вероятно, снизит ставки, чтобы компенсировать это. Я думаю, более эффективным решением было бы настроить автоматическое правило или скрипт, который просто приостанавливает кампании, как только мы достигнем желаемого лимита расходов. Это кажется более чистым подходом.

Microsoft Ads запускает списки отрицательных ключевых слов с самостоятельным управлением.

Microsoft Ads недавно добавила новую функцию: пользователи теперь могут создавать и управлять своими собственными списками отрицательных ключевых слов непосредственно в платформе, как объявила Navah Hopkins в LinkedIn.

Последнее обновление позволяет рекламодателям добавлять до 5000 отрицательных ключевых слов в каждый список, которые затем могут быть использованы для конкретных кампаний или во всей учетной записи. Мы также запускаем бета-тестирование для Performance Max кампаний с этой функцией.

Согласно справочной документации Microsoft, вы можете создать единый список до 1000 отрицательных ключевых слов, который применяется к вашей учетной записи.

Она также уточнила, что негативные ключевые слова будут работать идентично в кампаниях Performance Max, как и в стандартных поисковых кампаниях.

Почему это важно для рекламодателей

Отрицательные ключевые слова — один из самых простых способов защиты эффективности в Поиске.

Как веб-мастер, который годами управляет рекламными кампаниями, я очень рад видеть, что Microsoft предоставляет нам больше контроля над отрицательными ключевыми словами. Они только что запустили функцию самообслуживания, которая позволяет нам напрямую добавлять и управлять списками терминов, для которых мы *не* хотим, чтобы показывалась наша реклама, для всех типов кампаний – даже для новых кампаний Performance Max, которые все еще находятся в бета-тестировании. Раньше это было хлопотно, нужно было обращаться в поддержку, чтобы настроить исключения. Теперь все делается прямо в платформе, что значительно экономит время и дает нам гораздо более быстрый контроль.

Как человек, который управлял большим количеством онлайн-рекламных кампаний, я внимательно следил за этим изменением. Оно действительно приближает платформу Microsoft к тому, к чему мы привыкли в Google Ads – наконец-то давая нам надежную базовую степень контроля. Хотя автоматизация по-прежнему является ключевым фактором при запуске кампаний, самая большая победа заключается в том, что *мы*, как рекламодатели, теперь имеем гораздо более четкие способы указать, где *мы не* хотим, чтобы появлялась наша реклама. Это возвращает больше ответственности – и контроля – в наши руки.

Что говорят профессионалы PPC

Пост Хопкина в LinkedIn получил положительные реакции и комментарии от многочисленных рекламодателей, таких как Науман Юнис Лодхи, который является директором в Sorcim.

Nauman предоставил полезные отзывы Microsoft Ads:

Хотя фразовые и широкие негативные ключевые слова могут быть полезны, легко допустить ошибки, которые повлияют на эффективность вашей рекламы, особенно при анализе большого количества поисковых запросов. Начинать с точных негативных ключевых слов – самый безопасный подход. При необходимости рекламодатели могут позже настроить их до негативных ключевых слов Root Single Word.

Хопкинс ответила, что намерена передать этот отзыв команде Microsoft для дальнейшего рассмотрения.

Тема Недели: Гибкость Требует Лучшего Ввода

Каждое из обновлений этой недели повышает гибкость внутри рекламных платформ.

Google хочет, чтобы рекламодатели загружали более широкий спектр рекламных элементов – такие как изображения и текст – чтобы их система могла создавать больше рекламы для различных поисковых запросов и в различных форматах. Они также совершенствуют способы расходования бюджетов при планировании рекламы. Тем временем Microsoft позволяет рекламодателям иметь более точный контроль над отрицательными ключевыми словами, которые они используют, чтобы предотвратить показ их рекламы по нерелевантным запросам.

Эти изменения показывают, что эффективность рекламы все больше и больше зависит от качества информации, используемой для ее создания, и от четких правил, которые устанавливают рекламодатели.

Смотрите также

2026-02-27 15:12