Как ИИ-агенты видят ваш веб-сайт (и как для них строить)

Современные ведущие AI-платформы могут самостоятельно исследовать веб. Некоторые, такие как функция автоматического просмотра в Chrome, просто прокручивают и нажимают на ссылки. Другие, такие как Atlas от ChatGPT и Comet от Perplexity, могут даже заполнять формы и совершать покупки. Однако, несмотря на эти достижения, ни один AI в настоящее время не просматривает и не понимает веб-сайты так, как это делает реальный человек.

Это четвёртая статья в серии из пяти частей о том, как сделать так, чтобы веб-сайты хорошо работали с ИИ. Ранее мы обсудили переход от традиционного SEO, как заставить ИИ распознать ваш контент и лежащую в основе технологию. Теперь мы углубимся в технические детали: как ИИ-агенты ‘видят’ ваш веб-сайт и что вы можете создать, чтобы наилучшим образом им служить.

Мои исследования последовательно показывают, что улучшение совместимости с ИИ для вашего веб-сайта удивительно похоже на обеспечение его доступности для всех. Технология, изначально разработанная для помощи людям, использующим программы чтения с экрана – называемая деревом доступности – теперь является основным способом взаимодействия AI-агентов с веб-сайтами.

Как человек, который давно занимается управлением веб-сайтами, я увидел огромный сдвиг в последнее время. Отчет Imperva Bad Bot Report за 2025 год – от экспертов по безопасности из Imperva – показал, что впервые в истории более половины всего трафика веб-сайтов в 2024 году приходилось на ботов – 51%, если быть точным. Конечно, не весь этот трафик злонамеренный, но это явный признак того, что боты теперь составляют самую большую часть моей аудитории, и это число только растет. Все, чем я делюсь здесь, основано на официальных отчетах, серьезных исследованиях и объявлениях компаний, которые фактически разрабатывают эту технологию.

Три способа, которыми агенты видят ваш веб-сайт

Люди воспринимают веб-сайты визуально – через цвета, дизайн, изображения и шрифты. AI agents, однако, видят вещи совершенно по-другому. Знание того, как эти агенты воспринимают веб-сайты, имеет решающее значение для создания сайтов, которые хорошо работают для них.

Существует три основных способа работы ведущих ИИ-систем, и понимание этих различий имеет решающее значение для создания эффективного веб-сайта.

Видение: Чтение скриншотов

Anthropic’s Claude работает, напрямую просматривая то, что находится на экране. Он делает скриншоты веб-браузера, а затем анализирует эти изображения, чтобы понять, что он видит. Основываясь на этом визуальном анализе, Claude решает, на что нажать или что ввести. Этот процесс повторяется непрерывно: он делает скриншот, определяет, что нужно сделать, выполняет действие, а затем делает еще один скриншот. По сути, Claude работает, идентифицируя элементы, такие как кнопки, на основе их внешнего вида и считывая текст непосредственно из изображения, отображаемого на экране.

Проект Mariner от Google работает по трёхэтапному процессу: он сначала анализирует то, что видит на веб-странице, включая как визуальную компоновку, так и код. Затем он определяет серию действий для выполнения. Наконец, он имитирует взаимодействие пользователя со страницей. В тестировании Mariner успешно выполнил задачи на стандартном бенчмарке в 83,5% случаев.

Хотя использование изображений для понимания того, что отображается на экране, может работать, это требует значительной вычислительной мощности, легко нарушается изменениями в расположении объектов и может видеть только то, что фактически отображается.

Дерево доступности: Структура чтения

OpenAI пошла другим путем с ChatGPT Atlas. Их FAQ для издателей и разработчиков является явным:

ChatGPT Atlas понимает, как организована веб-страница и с чем вы можете взаимодействовать, используя специальные метки – те же, которые помогают людям, использующим программы чтения с экрана. Эти метки сообщают ему о структуре и элементах страницы.

Atlas основан на той же технологии, что и Chrome, но вместо того, чтобы смотреть на то, что вы *видите* на экране, он изучает базовую структуру веб-страниц. Он конкретно ищет такие элементы, как кнопки и ссылки, используя информацию, аналогичную той, на которую полагаются скринридеры — инструменты, помогающие людям с нарушениями зрения — для понимания и навигации по веб-сайтам.

Как эксперт по SEO, я слежу за подходом Microsoft к автоматизации браузеров с помощью Playwright, и это действительно интересно. Вместо простого создания скриншотов, Playwright фокусируется на снимках доступности. Это означает, что он предоставляет AI-моделям структурированное понимание страницы, что намного ценнее, чем простое изображение. Microsoft намеренно сделала этот выбор, отдавая приоритет данным доступности над визуальной отрисовкой для своего стандарта автоматизации – и я думаю, это умный ход для SEO и общего понимания веб-страниц.

Гибрид: И то, и другое

Наиболее эффективные AI-агенты обычно используют комбинацию различных техник. Например, Computer-Using Agent от OpenAI – используемый как в Operator, так и в Atlas – анализирует скриншоты, код веб-сайтов и функции доступности. Он предпочитает использовать информацию о доступности, такую как ARIA-метки, когда это возможно, но также может полагаться на видимый текст и структуру веб-сайта, если эта информация недоступна.

Исследование Perplexity показывает схожий подход. В их отчете о BrowseSafe, который объясняет, как работают функции безопасности в браузере Comet, говорится, что они используют комбинацию методов: анализ структуры веб-страницы и применение целенаправленного визуального анализа.

Платформа Основной подход Детали
Использование компьютеров Anthropic Vision (скриншоты) Скриншот, причина, цикл обратной связи по действиям.
Google Project Mariner Видение + структура кода Наблюдение-планирование-действие с использованием визуальных и структурных данных
OpenAI Atlas Дерево доступности Явно использует ARIA-теги и роли.
OpenAI CUA Гибридный Скриншоты + DOM + дерево доступности
Microsoft Playwright MCP Дерево доступности Снимки доступности, без скриншотов
Perplexity Comet Гибрид Дерево доступности + выборочное зрение

Становится очевидным, что доступность является приоритетом для всех платформ. Даже те, которые изначально были сосредоточены на визуальном тестировании, теперь используют данные о доступности, а самые надёжные и эффективные платформы – такие как Atlas и Playwright MCP – фактически начинают с использования дерева доступности.

Не думайте о дереве доступности вашего веб-сайта только как о чём-то, что вам нужно по юридическим причинам. Сейчас это основной способ, которым автоматизированные системы – такие как боты и другие агенты – фактически воспринимают и используют ваш веб-сайт.

Однажды я в шутку предсказал, что именно ИИ, а не искренняя забота о людях с ограниченными возможностями, станет движущей силой улучшения доступности. С вступлением в силу Европейского акта о доступности, похоже, что эта шутка становится реальностью.

Дерево доступности — это ваш интерфейс агента.

Как цифровой маркетолог, я часто думаю о том, как пользователи *воспринимают* наши веб-сайты, и это включает людей, использующих вспомогательные технологии. Чтобы помочь этим технологиям понять страницу, браузеры строят так называемое ‘дерево доступности’. Представьте себе это как упрощенную версию полного кода, составляющего веб-страницу. В то время как полный код включает *все* – все элементы дизайна и скрипты – дерево доступности фокусируется исключительно на важном: вещах, с которыми пользователи могут взаимодействовать, что это такое (например, кнопки или ссылки), их метки и их текущее состояние. Оно отсекает весь ненужный ‘шум’, чтобы дать вспомогательным технологиям четкую картину.

Именно поэтому это так полезно для AI-агентов. Веб-страницы часто содержат тысячи элементов в своем коде, но дерево доступности упрощает ситуацию, сосредотачиваясь только на тех частях, с которыми может взаимодействовать пользователь – таких как кнопки, ссылки и заголовки. Это упрощение особенно полезно для AI-моделей, которые могут обрабатывать только ограниченное количество информации за один раз при работе с веб-страницами.

FAQ для издателей и разработчиков OpenAI очень чётко об этом говорит:

Чтобы сделать ваш веб-сайт более понятным и удобным для использования ChatGPT, следуйте рекомендациям по веб-доступности (WAI-ARIA). В частности, добавьте чёткие описания (роли, метки и состояния) к таким элементам, как кнопки, меню и формы. Это сообщает ChatGPT, что делает каждая часть, чтобы он мог более эффективно взаимодействовать с вашим сайтом.

И:

Повышение доступности вашего веб-сайта помогает ChatGPT Agent в Atlas лучше его понимать.

Исследования это подтверждают. Детальное исследование, проведенное Калифорнийским университетом в Беркли и Мичиганским университетом, представленное на ведущей конференции по взаимодействию человека и компьютера (CHI 2026), предоставляет убедительные доказательства. Исследователи тщательно протестировали ИИ-модель Claude Sonnet 4.5 на 60 распространенных онлайн-задачах, изменяя настройки доступности. Они собрали более 40 часов данных из более чем 158 000 взаимодействий, и результаты были значительными.

Состояние Коэффициент успешного выполнения задач Среднее время прохождения
Стандартный (по умолчанию) 78,33% 324.87 секунды
Только клавиатура 41,67% 650.91 секунд
Увеличенная область просмотра 28,33% 1,072.20 секунды

Агент показал хорошие результаты в нормальных условиях, добиваясь успеха почти в 80% случаев. Однако, при ограничении навигацией только клавиатурой – имитируя взаимодействие человека, использующего программу чтения с экрана – его процент успеха упал до 42%, а выполнение задач занимало в два раза больше времени. Дальнейшее ограничение видимости, как если бы использовалась лупа, снизило успех всего до 28% и увеличило время выполнения задач более чем в три раза.

В статье выделены три категории пробелов:

  • Разрывы восприятия: агенты не могут надёжно получать доступ к объявлениям скринридера или изменениям состояния ARIA, которые сообщали бы о том, что произошло после действия.
  • Когнитивные пробелы: агенты испытывают трудности с отслеживанием состояния задачи на протяжении нескольких шагов.
  • Проблемы с действиями: агенты недостаточно используют сочетания клавиш и терпят неудачи во взаимодействиях, таких как перетаскивание.

Всё просто: веб-сайты, которые легко воспринимаются вспомогательными технологиями – с чёткими метками и хорошо структурированным макетом – помогают агентам службы поддержки предоставлять более качественную поддержку. И наоборот, веб-сайты, которые сильно зависят от визуальных элементов, движений мыши или сложного кода без предоставления доступных опций, значительно усложняют работу агентов.

Недавняя статья от Perplexity (сентябрь 2025 года) подтверждает важность хорошо организованного контента для их поисковой технологии. Их система предпочитает веб-сайты с информацией, которая является как точной, так и представленной в четкой, структурированной форме — сохраняя исходную разметку и формат. В частности, сайты, которые используют списки и таблицы, легче для их системы обрабатывать и извлекать из них информацию. По сути, структура — это не просто *полезно* для поиска; это *необходимо* для точного извлечения данных.

Семантический HTML: Основа Агента

Веб-сайты создают «дерево доступности» на основе вашего HTML-кода. Если вы правильно используете стандартные HTML-элементы, браузер автоматически создаст полезное дерево доступности. Однако, если вы этого не делаете, дерево будет неполным или неточным, что затруднит навигацию по веб-сайту для людей, использующих вспомогательные технологии.

Совет использовать семантический HTML не нов – эксперты рекомендуют его уже двадцать лет. Хотя он не всегда широко применялся, причина, по которой ему следует отдавать приоритет, изменилась. Ранее основным преимуществом была улучшенная доступность для программ чтения с экрана и небольшой группы пользователей. Теперь это крайне важно, потому что каждый ИИ, взаимодействующий с вашим веб-сайтом, полагается на него.

По возможности используйте стандартные HTML-элементы для интерактивных функций. Например, элемент `





Search flights

Убедитесь, что каждое поле формы имеет чёткую метку. Метки помогают агентам понять, какую информацию следует вводить в каждое поле.







Как человек, который создал множество веб-форм, могу сказать вам, что атрибут `autocomplete` чрезвычайно важен. Это способ сообщить браузеру – и любым инструментам, автоматически заполняющим форму – *точно*, какую информацию требует каждое поле. Вы используете стандартные значения, такие как `name`, `email`, `tel`, `street-address` или `organization`. Когда кто-то другой заполняет форму от имени пользователя – например, менеджер паролей или сотрудник службы поддержки – эти атрибуты определяют, будут ли поля заполнены точно или просто угаданы. Это действительно упрощает процесс и повышает качество данных.

Используйте заголовки для организации вашего контента, начиная с наиболее важного (h1) и переходя к менее важным (h2 через h6). Это помогает людям (и поисковым системам) легко понять структуру вашей страницы и найти необходимую информацию. Не пропускайте уровни заголовков – например, переходите от h1 к h2, а не напрямую к h4, так как это может быть запутанно.

Используйте HTML5 landmark regions, чтобы помочь браузерам и вспомогательным технологиям понять структуру вашей страницы. Эти специальные теги – такие как `



Flight Search

Агенты тестирования Playwright от Microsoft, запуск которых запланирован на октябрь 2025 года, автоматически создают тестовый код, который приоритизирует доступность. Когда ИИ создает Playwright тест, он разработан для использования селекторов, которые облегчают взаимодействие со всеми веб-элементами.

const todoInput = page.getByRole('textbox', { name: 'What needs to be done?' });

Тестирование ИИ от Microsoft не полагается на традиционные методы, такие как CSS-селекторы или XPath. Вместо этого, оно фокусируется на доступных ролях и именах – той же информации, которую используют скринридеры. Такой подход делает тестирование более надежным и точным.

ARIA: Полезная, а не волшебная

OpenAI предлагает использовать ARIA (Accessible Rich Internet Applications), стандарт, разработанный W3C, чтобы сделать веб-сайты с изменяющимся контентом доступными для всех. Однако ARIA не является самостоятельным решением. Представьте себе это как протеиновые коктейли – они могут быть полезны *в дополнение к* здоровому питанию, но не должны *заменять* полноценные приемы пищи.

Первое правило ARIA, как определено W3C:

По возможности используйте стандартные HTML-элементы и атрибуты, которые уже работают так, как вам нужно, вместо изменения других элементов и использования ARIA для обеспечения их доступности.

Самая первая рекомендация по использованию ARIA, созданная W3C, заключается в том, чтобы просто *не* использовать её – и это действительно подчеркивает, как часто она применяется неправильно.

Недавно эксперт по веб-доступности Адриан Роселли указал на потенциальную проблему с советами OpenAI об использовании ARIA. Он считает, что предложение ARIA без надлежащего объяснения может привести к тому, что люди будут использовать его неправильно. Фактически, исследования WebAIM показывают, что веб-сайты, использующие ARIA, часто *менее* доступны, поскольку его часто добавляют поверх плохо структурированного HTML, а не исправляют базовый код. Роселли обеспокоен тем, что рекомендации OpenAI могут побудить разработчиков неправильно использовать ARIA, подобно тому, как злоупотребляли meta keywords для поисковой оптимизации в прошлом, — например, чрезмерно заполняя атрибуты ключевыми словами.

Правильный подход — слоистый:

  1. Начните с семантического HTML. Используйте ,

    , , и другие нативные элементы. Они работают правильно по умолчанию.

  2. Добавляйте ARIA, когда встроенного HTML недостаточно. Пользовательским компонентам, не имеющим HTML-эквивалентов (панели вкладок, представления дерева, раскрывающиеся виджеты), необходимы ARIA-роли и состояния для понимания.
  3. Используйте ARIA-состояния для динамического контента. Когда JavaScript изменяет страницу, ARIA-атрибуты сообщают о произошедшем:



  1. Сохраняйте aria-label описательным и честным. Используйте его для предоставления контекста, который не виден на экране, например, для различения нескольких кнопок «Delete» на одной странице. Не перегружайте его ключевыми словами.

Подобно хорошей поисковой оптимизации (SEO), ключ в том, чтобы приоритизировать пользовательский опыт, а затем сосредоточиться на технических деталях. Семантический HTML создает прочную основу для пользователей, в то время как ARIA помогает улучшить вещи в конкретных ситуациях, когда стандартного HTML недостаточно.

Вопрос рендеринга

Веб-браузеры, такие как Chrome, наряду с AI-инструментами, такими как ChatGPT Atlas и Perplexity Comet, построены на платформе Chromium. Это позволяет им запускать JavaScript и отображать современные веб-приложения – даже те, которые созданы как одностраничные.

Но не всё, что посещает ваш веб-сайт, является полноценным браузерным агентом.

Инструменты AI-поиска, такие как Perplexity, OpenAI и Claude, используют веб-краулеры для поиска и указания источников контента на вашем сайте. Однако многие из этих краулеров не могут запускать JavaScript. Если ваш веб-сайт полагается на JavaScript для отображения контента – то есть изначально показывает пустую страницу, пока полностью не загрузится – эти краулеры не смогут его увидеть. Это означает, что ваш контент не появится в результатах AI-поиска.

Предыдущий раздел объяснял, как системы искусственного интеллекта находят и используют информацию с веб-сайтов. По сути, эти системы извлекают контент из проиндексированного кода веб-сайта. Это означает, что если информация не находится непосредственно в исходном HTML вашей страницы, искусственный интеллект не сможет ее найти и включить в свои ответы. Следовательно, использование серверного рендеринга — это не только способ сделать ваш веб-сайт быстрее — он также гарантирует, что весь ваш контент будет доступен системам искусственного интеллекта.

Это требование к видимости.

Даже с использованием продвинутых инструментов браузера, веб-сайты, которые сильно зависят от JavaScript, могут быть сложны для навигации автоматизированными агентами. Такие функции, как контент, который загружается по мере взаимодействия со страницей, бесконечная прокрутка и формы, которые постоянно меняются, могут сбивать с толку агентов и затруднять отслеживание происходящего. Исследования A11y-CUA показали, что агенты часто терпят неудачу из-за этих ‘когнитивных пробелов’ – они теряют контекст во время сложных процессов. Веб-сайты, которые проще и загружают контент более предсказуемо, с меньшей вероятностью вызывают эти сбои.

Следуйте советам Microsoft: убедитесь, что важная информация сразу видна на странице. ИИ-системы могут быть не в состоянии получить доступ к контенту, скрытому во вкладках или выпадающих списках, поэтому важные детали могут быть упущены. Всегда отображайте ключевую информацию непосредственно в основном контенте, вместо того, чтобы требовать от пользователей щелчка или разворачивания, чтобы увидеть ее.

Практичные приоритеты рендеринга:

  • Серверная отрисовка или предварительная отрисовка страниц контента. Если AI-краулер не может это увидеть, этого не существует в AI-экосистеме.
  • Избегайте пустых SPA для контентных страниц. Фреймворки, такие как Next.js (который поддерживает этот веб-сайт), Nuxt и Astro, упрощают SSR.
  • Не скрывайте важную информацию за взаимодействиями. Цены, спецификации, доступность и ключевые детали должны быть в исходном HTML, а не за аккордеонами или вкладками.
  • Используйте стандартные ссылки для навигации. Клиентская маршрутизация, которая не обновляет URL или использует onClick обработчики вместо реальных ссылок, ломает навигацию агента.

Тестирование интерфейса вашего агента

Как цифровой маркетолог, я всегда убеждаюсь, что веб-сайт выглядит и функционирует безупречно в браузере перед запуском. Теперь я понимаю, что так же важно тестировать, как *люди* – потенциальные клиенты – фактически *воспринимают* сайт. Понимание их восприятия становится ключевой частью моей работы.

Как цифровой маркетолог, я обнаружил, что тестирование с использованием скринридеров – это самое близкое, что мы можем получить к пониманию того, как реальный пользователь с потребностями в доступности будет воспринимать наш веб-сайт. Если инструменты, такие как VoiceOver, NVDA или TalkBack, могут легко перемещаться по сайту – находить кнопки, читать поля формы и понимать макет – это хороший признак того, что большинство пользователей также получат плавный опыт. Как скринридеры, так и поисковые боты полагаются на одну и ту же базовую структуру веб-сайта, то, что мы называем ‘деревом доступности’. Теперь, это не *идеальное* совпадение – боты могут делать некоторые вещи, которые не могут скринридеры, и наоборот – но это выявляет подавляющее большинство проблем с доступностью, что делает это действительно ценной проверкой для нас.

Playwright MCP от Microsoft позволяет вам увидеть, как ИИ-агент воспринимает ваш веб-сайт. Он создает снимки доступности, которые фокусируются на базовой структуре – таких как роли, имена и состояния – а не на визуальном дизайне. Это позволяет вам понять, какую информацию агент на самом деле использует. Доступен как пакет под названием `@playwright/mcp` на npm, это самый простой способ увидеть ваш веб-сайт с точки зрения ИИ-агента.

Вывод выглядит примерно так (упрощённо):

[heading level=1] Flight Search
[navigation "Main navigation"]
  [link] Products
  [link] Pricing
[main]
  [textbox "Departure airport"] value=""
  [textbox "Arrival airport"] value=""
  [button] Search flights

Если важные кнопки, ссылки или другие интерактивные части вашего сайта не видны на скриншоте или не помечены чётко, автоматизированным агентам будет сложно эффективно использовать ваш сайт.

Stagehand от Browserbase (версия 3, выпущенная в октябре 2025 года) — это фреймворк для автоматизации браузера, разработанный, чтобы помочь вам протестировать, могут ли агенты искусственного интеллекта успешно перемещаться по вашему веб-сайту и выполнять задачи, такие как заполнение форм или совершение покупок. Он работает путем анализа как видимых элементов веб-страницы, так и ее базового кода, и может автоматически адаптироваться к изменениям на странице, что делает тесты более надежными.

Как SEO-эксперт, я всегда ищу способы понять, как поисковые системы ‘видят’ веб-сайты, и недавно я обнаружил Lynx. Это действительно простой текстовый браузер, который удаляет все изображения и форматирование. Он, по сути, показывает вам исходный HTML, давая представление о том, что испытывает бот поисковой системы. Я узнал об этом приеме от Jes Scholz в подкасте, и это оказался удивительно полезный инструмент для технических SEO-аудитов.

Практичный процесс тестирования:

  1. Запустите VoiceOver или NVDA, пройдя основные пользовательские сценарии вашего веб-сайта. Можете ли вы выполнить основные задачи без зрения?
  2. Создавайте снимки доступности MCP Playwright для критически важных страниц. Имеют ли интерактивные элементы метки и идентифицируемы ли они?
  3. Загрузите свою страницу в Lynx или отключите CSS и проверьте, имеет ли порядок и иерархия контента всё ещё смысл. Агенты не видят вашу разметку.

Чек-лист для вашей команды разработчиков

Если вы отправляете это своей команде разработчиков (и мы рекомендуем вам это сделать!), вот список изменений, которые необходимо внести, расставленных по приоритетам для достижения максимального эффекта с минимальными усилиями. Мы упорядочили их, начиная с обновлений, которые улучшат наибольшее количество взаимодействий с клиентами с наименьшим объемом работы.

Высокий эффект, низкие усилия:

  1. Используйте нативные HTML-элементы. для действий, для ссылок, для выпадающих списков. Замените шаблоны

    везде, где они существуют.

  2. Подписывайте каждую форму ввода. Связывайте элементы с полями ввода, используя атрибут for. Добавляйте атрибуты autocomplete со стандартными значениями.
  3. Отображение контента на стороне сервера. Убедитесь, что основной контент находится в первоначальном HTML-ответе.

Высокий эффект, умеренные усилия:

  1. Реализуйте ориентиры (landmark regions). Оберните контент в элементы

    ,

    ,

    и

    . Добавьте aria-label, когда на одной странице существует несколько ориентиров одного типа.

  2. Исправьте иерархию заголовков. Убедитесь в наличии единственного h1, с h2 через h6 в логическом порядке, без пропусков уровней.
  3. Переместите критически важный контент из скрытых контейнеров. Цены, спецификации и ключевые детали не должны требовать кликов или взаимодействий для раскрытия.

Умеренное влияние, небольшие усилия:

  1. Добавляйте ARIA-состояния к динамическим компонентам. Используйте aria-expanded, aria-controls и aria-hidden для меню, аккордеонов и переключателей.
  2. Используйте описательный текст для ссылок. «Прочитать полный отчёт» вместо «Нажмите здесь». Пользователи используют текст ссылки, чтобы понять, куда она ведёт.
  3. Протестируйте с помощью программы чтения с экрана. Сделайте это частью вашего процесса контроля качества, а не одноразовой проверкой.

Key Takeaways

  • ИИ-агенты воспринимают веб-сайты тремя подходами: зрение, разбор DOM и дерево доступности. Отрасль сходится к дереву доступности как к наиболее надёжному методу. OpenAI Atlas, Microsoft Playwright MCP и Perplexity’s Comet все полагаются на данные доступности.
  • Веб-доступность – это больше, чем просто соответствие требованиям. Дерево доступности – это буквальный интерфейс, который используют агенты ИИ для понимания вашего веб-сайта. Исследование UC Berkeley/University of Michigan показывает, что показатели успешности агентов значительно снижаются, когда возможности доступности ограничены.
  • Семантический HTML – это основа. Нативные элементы, такие как , ,

    и

    , автоматически создают полезное дерево доступности. Никакой фреймворк не требуется. Нет необходимости в ARIA для базовых вещей.
  • ARIA — это дополнение, а не замена. Используйте его для динамических состояний и пользовательских компонентов. Но начните с семантического HTML и добавляйте ARIA только там, где нативных элементов недостаточно. Неправильное использование ARIA делает веб-сайты менее доступными, а не более.
  • Рендеринг на стороне сервера является требованием видимости для агентов. AI-краулеры, которые не выполняют JavaScript, не могут видеть контент в пустых SPA. Если ваш контент отсутствует в исходном HTML, то его не существует в AI-экосистеме.
  • Тестирование скринридером — лучший способ проверить совместимость с агентами. Если VoiceOver или NVDA могут ориентироваться на вашем веб-сайте, то, вероятно, и агенты тоже. Для непосредственной проверки снимки доступности Playwright MCP показывают, что именно видят агенты.

Предыдущие статьи в этой серии объясняли важность этого изменения, как добиться признания вашей работы и какие новые технологии разрабатываются. Эта статья посвящена применению этих идей на практике. Хорошая новость заключается в том, что вся эта работа приносит пользу всем: создание удобных и хорошо организованных веб-сайтов улучшает взаимодействие с пользователями, повышает позиции в поисковых системах, увеличивает цитирование ИИ и помогает автоматизированным системам эффективно функционировать. По сути, это один набор улучшений, который служит четырем разным группам.

Эта работа является накопительной – хорошо структурированный HTML и данные, обсуждаемые здесь, необходимы для работы WebMCP, позволяя ему создавать интерфейсы, просто объявляя, что вы хотите. Функции доступности вашего текущего веб-сайта послужат основой для более продвинутых, интерактивных инструментов будущего.

Теперь давайте посмотрим в будущее онлайн-шоппинга с использованием ИИ. Мы рассмотрим, как компании, такие как Stripe, Shopify и OpenAI, создают технологии, которые позволят ИИ-ассистентам совершать покупки за вас, и как это изменит процесс оформления заказов в интернете.

Смотрите также

2026-04-12 15:46

Что интервью Пичаи показывает о направлении поиска Google?

Генеральный директор Google Сундар Пичаи недавно описал, как он видит эволюцию поиска в нечто вроде личного помощника, концепция, которая привлекла внимание после разговора с генеральным директором Stripe Патриком Коллисоном.

Как эксперт по поиску, я внимательно следил за недавними объявлениями от Google. Сундар Пичаи недавно поделился видением поиска, которое представляет собой значительный сдвиг от того, как мы используем его сегодня. Он описал будущее, в котором пользователи будут не просто просматривать списки ссылок, а активно *делать* вещи непосредственно в поиске – почти как одновременное выполнение нескольких задач или ‘потоков’. Это переход от поиска информации к *выполнению* вещей непосредственно через Google.

Интервью вышло за рамки одного лишь этого заявления. Пичай подробно описал план на будущее, указал на то, что сдерживает прогресс, объяснил, как он лично тестирует раннюю версию технологии, и признал технические ограничения, которые замедляют ее выпуск.

Вот что еще раскрывает интервью для специалистов по поиску.

Как язык Пичаи обострился

Недавнее упоминание ‘менеджера агентов’ не стало сюрпризом. За последние полтора года Сундар Пичаи все более четко обозначил свое видение будущего поиска.

В декабре 2024 года он предсказал значительные изменения в поиске в 2025 году, заявив, что Google будет способен отвечать на гораздо более сложные вопросы.

В октябре 2025 года, во время отчёта о квартальных доходах Google, руководство компании описало значительный период роста для Search, отметив, что поисковые запросы с использованием их AI-функций удвоились за предыдущие три месяца.

Он объявил, что доход от Search достиг 63 миллиардов долларов в четвертом квартале 2025 года. Рост в этой области улучшался в течение года, начиная с 10% в первом квартале и достигая 17% к четвертому, благодаря добавлению новых функций искусственного интеллекта.

Теперь, в этом апреле, он определяет это новым термином. Речь идет не просто об изменениях в поиске или его возможностях, а конкретно о способе, которым пользователи могут выполнять задачи – ‘search agent manager’, который обрабатывает задачи за них.

Каждый раз язык переходил от абстрактного к конкретному, от предсказания к описанию.

Точка перелома 2027 года

Патрик Коллисон был заинтригован тем, когда Google может создать полностью саморегулирующийся бизнес-процесс – что-то вроде автоматического прогнозирования финансовых результатов без какого-либо участия человека. Сундар Пичаи предположил, что это может произойти уже в следующем году.

Я предполагаю, что 2027 год станет ключевым поворотным моментом для нескольких разработок.

Он также упомянул, что рабочие процессы вне инженерии существенно изменятся к 2027 году, и что некоторые команды Google уже экспериментируют с этими новыми подходами.

Некоторые команды в Google вносят значительные изменения, и моя основная задача — распространить эти улучшения по всей компании, особенно к 2026 году.

Я заметил кое-что интересное: более новые компании, построенные вокруг ИИ с самого начала, естественно быстрее принимают эти новые способы работы. Для крупных организаций, таких как Google, ситуация иная. Мы имеем дело с большим количеством переобучения и помощью людям в адаптации к этим изменениям, что требует времени и усилий.

The Intelligence Overhang

Самая проницательная часть интервью прозвучала не от Сундара Пичаи. Это был Патрик Коллисон, объясняющий нечто, что он называет «интеллектуальным перевесом» — разницей между текущими возможностями ИИ и тем, насколько компании фактически ими пользуются.

Коллисон отметил, что даже когда инструменты ИИ мощны, несколько препятствий мешают их широкому распространению. Одна из ключевых проблем заключается в том, что эффективное использование этих инструментов требует определенных навыков – умения правильно формулировать запросы – и большинство людей в компаниях еще не приобрели этот навык.

Помимо общих навыков промптинга, ИИ нуждается в конкретных знаниях о компании – таких вещах, как внутренние инструменты, источники данных и установленные практики. Ему также необходим доступ к соответствующим данным; например, он не может предоставить обновления по сделке, если не может подключиться к CRM или не имеет соответствующих разрешений. Наконец, текущие роли и процессы – такие как должностные инструкции и системы утверждения – были созданы для человеческих команд и могут работать не очень хорошо с помощниками на основе ИИ.

Пичай согласился с этой оценкой и сказал, что Google сталкивается с теми же проблемами внутри компании.

Управление доступом к нашим системам — значительная задача, и мы активно работаем над решением этих проблем. Эти средства контроля доступа в настоящее время являются основным фактором, замедляющим наш прогресс.

Он объяснил, что новый внутренний инструмент Google, прозванный Antigravity, уже влияет на его работу в качестве генерального директора. Он использует его, чтобы быстро понимать новые выпуски продуктов.

Мы недавно запустили что-то новое, и я хотел бы понять реакцию публики. Не могли бы вы рассказать мне о пяти наиболее распространенных негативных комментариях и пяти наиболее распространенных положительных комментариях, которые люди высказывают об этом? Я буду вводить их по мере того, как вы ими делитесь.

Это реальный пример того, как Google использует ‘agent managers’ внутри компании. Сундар Пичаи видит Поиск как способ фактически *делать* вещи, а не просто предоставлять список ссылок. Google в настоящее время работает над тем, чтобы сделать этот улучшенный опыт доступным для всех, поскольку он пока не широко доступен внешним пользователям.

SEO-команды и агентства должны учитывать потенциал ИИ в двух направлениях. Во-первых, им следует оценить, насколько больше ИИ мог бы делать *внутри* их собственных команд. Во-вторых, они должны признать, что AI-модели Google уже достаточно продвинуты, чтобы обрабатывать более сложные поисковые запросы, хотя эти функции пока не полностью доступны пользователям.

Что тормозит сроки?

Как специалист по цифровому маркетингу, я следил за недавними обсуждениями инвестиций Google в инфраструктуру. Сундар Пичаи уточнил, что их капитальные затраты на 2026 год фактически составят от 175 до 185 миллиардов долларов – немного больше, чем 150 миллиардов долларов, о которых упоминал Патрик Коллисон. Чтобы дать вам представление о масштабе, это примерно в шесть раз больше, чем Google тратил до того, как мы начали активно развивать все эти AI технологии. Это огромное обязательство перед будущим!

Когда его спросили об узких местах, Пичай назвал четыре ограничения по порядку.

Самым большим ограничением на данный момент является количество производимых компьютерных чипов. Получение достаточного количества памяти является серьезной проблемой. Также требуется больше времени для получения одобрения и строительства новых центров обработки данных, и существует нехватка других важных деталей, необходимых для этих систем, что усугубляет трудности.

Крупные производители памяти вряд ли в ближайшее время существенно увеличат свои производственные мощности. Это создаёт ограничения в ближайшем будущем, но эти ограничения должны ослабнуть со временем.

Он считает, что эти ограничения фактически заставят Google стать более эффективным, и он ожидает, что их AI-системы станут «в 30 раз более эффективными», несмотря на увеличение инвестиций.

Он также упомянул, что тратит час каждую неделю на тщательную проверку того, как вычислительные ресурсы используются различными командами и проектами в Google.

Что это значит для специалистов по поиску.

Взгляд Сундара Пичаи на поиск как на ‘агента’ смещает фокус для экспертов SEO, меняя то, что им нужно учитывать при выполнении своей работы.

Поисковые модели, ориентированные на ранжирование, просто перечисляют лучшие результаты. Модели, основанные на агентах, напротив, стремятся помочь системе что-то выполнить – они сосредоточены на том, чтобы быть полезными, а не просто предоставлять список. Это принципиально разные цели.

Представьте себе, что вы просите поискового помощника найти сантехника. Вам не нужен список веб-сайтов – вам нужно, чтобы помощник *нашёл* сантехника, проверил его рейтинги, посмотрел, свободен ли он в субботу утром, а затем забронировал для вас встречу. Именно это и делает поиск, завершённый агентом. Он использует прямую информацию о бизнесе, отзывы и системы бронирования, чтобы выполнить работу. Компании, которые извлекают выгоду, — это те, у которых актуальная, организованная и легкодоступная информация. Те, у которых неточные данные, нет онлайн-бронирования или мало отзывов, вероятно, будут проигнорированы.

То же самое верно и для онлайн-шопинга. Клиент может спросить: ‘Покажи мне кроссовки для плоскостопия, стоимостью менее $150, которые могут быть доставлены к пятнице’. Чтобы обработать этот запрос, полезному помощнику необходим доступ к таким деталям, как информация о продукте, текущие уровни запасов, сроки доставки и подходит ли обувь для плоскостопия. Веб-сайты, которые предоставляют эту информацию в четком и легко обрабатываемом формате, будут использоваться помощником. Однако сайты, которые скрывают эту информацию в сложном коде или требуют входа в систему, скорее всего, будут проигнорированы.

Это соответствует тому, что мы наблюдаем в режиме AI. Google объявила в отчете о доходах за 4 квартал 2025 года, что люди задают гораздо более подробные вопросы при использовании режима AI – эти вопросы в три раза длиннее обычных поисковых запросов и часто приводят к дальнейшим запросам.

Как SEO-эксперт, я внимательно слежу за 2027 годом, но честно говоря, сдвиг происходит *сейчас*. Если компании начнут полагаться на AI-агентов для повседневных задач в следующем году – и я думаю, что так и будет – компании, предоставляющие данные, которые эти агенты используют, *должны* подготовиться. Это означает думать шире, чем просто делать веб-сайты удобными для людей. Мы говорим о создании основы структурированных данных, надёжных API и абсолютно точной бизнес-информации. Это больше не бонус – это основная инфраструктура для успеха. Думайте о машинном чтении, а не только о чтении человеком.

Разрыв в измерениях

Настаивание Пичаи на том, что поиск с использованием ИИ – это не игра с нулевой суммой, заслуживает большего внимания, чем ему обычно уделяется.

Он неоднократно подчеркивал это. Он впервые описал это как период роста ещё в октябре 2025 года, а в феврале 2026 года заявил, что Google не заметил никакого негативного влияния от этого изменения. Недавно он объяснил это, сравнив ситуацию с тем, как YouTube продолжает преуспевать, несмотря на популярность TikTok.

Общий объём поисковых запросов может увеличиваться, даже если трафик на конкретные веб-сайты не растёт. Google может сообщать о большем количестве поисковых запросов, но владельцы веб-сайтов и предприятия по-прежнему могут видеть меньше трафика из этих запросов. Это не противоречие – обе тенденции могут происходить одновременно.

Google не опубликовала данные, показывающие, куда пользователи переходят после нажатия на результаты, сгенерированные её функциями искусственного интеллекта. Из-за этого заявление генерального директора Сундара Пичаи о росте является лишь его мнением, а не тем, что можно доказать данными. Вместо того, чтобы доверять описанию поискового рынка от Google, владельцам веб-сайтов и экспертам SEO следует отслеживать трафик своих собственных веб-сайтов, чтобы увидеть, что происходит на самом деле.

Заглядывая в будущее

В этом интервью Сундар Пичаи более прямо выразил планы Google по Search, чем в предыдущих публичных заявлениях. Если раньше анонсы представляли AI search как естественную эволюцию, то в этом интервью чётко очерчены амбиции Google по превращению Search в ‘менеджера агентов’ – совершенно новую концепцию продукта.

Google I/O 2026 пройдёт 19 и 20 мая, и мы ожидаем узнать больше о сроках выхода этих функций тогда.

Смотрите также

2026-04-11 15:42

Что я узнал о будущем поиска и ИИ из последнего интервью Сундара Пичаи.

Мне очень понравилось это интервью с Сундаром Пичаи, которое взяли Джон Коллисон и Элад Гил из Stripe.

https://www.youtube.com/watch?v=bTA8sjgvA4c

Вот пять самых интересных вещей, которые я узнал.

1. Поиск всё ещё будет существовать в будущем, но большая его часть будет агентивной.

Сундара спросили, заменят ли агенты Search. Он ответил:

В будущем, вместо того, чтобы просто искать информацию, Поиск поможет вам реально *делать* вещи. Он будет выполнять несколько задач для вас одновременно, как будто происходит много разговоров одновременно.

И также, поиск изменится, чтобы мы рассматривали его как менеджера агентов.

Технология поиска постоянно меняется. Она движется к системе, в которой она управляет множеством автоматизированных задач за вас. Подобно тому, как я сейчас использую Antigravity, с различными агентами, выполняющими разные вещи, я представляю себе, что поиск станет способным координировать такие действия, в конечном итоге делая гораздо больше для пользователя.

Он считает, что ИИ способствует переходу к более глубоким исследованиям и тому, что более длительные, непрерывные задачи становятся обычным явлением. Он также предсказывает, что мы увидим изменения в физическом дизайне устройств.

2. Google Использует Антигравитацию Внутренне

Я большой поклонник Antigravity, IDE и менеджера агентов от Google. Я использовал его для создания множества проектов, таких как RSS-ридер, инструмент для создания скриншотов с функциями аннотаций и автоматизированные рабочие процессы, которые публикуют мои Google Docs в WordPress. Я также создал инструменты для анализа данных из Google Search Console и Google Analytics 4. Хотя я думаю, что Claude Cowork и Claude Code потрясающие, я все еще предпочитаю работать с Antigravity.

Как опытный SEO-специалист, я изучал, как Google обрабатывает сложные структуры веб-сайтов, и это увлекательно. Оказывается, у них есть система, удивительно похожая на то, что мы в индустрии называем ‘Antigravity’, но внутри они называют её ‘Jet Ski’. По сути, это одна и та же концепция – способ понимать и управлять тем, как разные части сайта связаны друг с другом, что имеет огромное значение для индексации и ранжирования.

Сандар сказал, что Google DeepMind и Google Software Engineers используют его:

Мы наблюдаем, как команды, особенно GDM и некоторые из наших групп разработчиков программного обеспечения, значительно меняют свой подход к работе. Они внедряют инструмент, который мы внутренне называем ‘Jet Ski’ – известный внешне как ‘Antigravity’ – который фундаментально меняет их процесс. Это как переход в совершенно новую среду управления агентами с обновленными рабочими процессами.

Он также использует его сам.

Я использую наш внутренний инструмент, Antigravity, чтобы быстро узнать, что люди говорят о новых запусках. Я могу просто спросить его: «Какие пять самых негативных комментариев?» и он дает мне ответ. Это значительно упростило мою работу – раньше я тратил гораздо больше времени на сбор этой информации самостоятельно. Теперь мне в этом помогает ИИ-ассистент.

Также, только на прошлой неделе, команда Google Search начала использовать Antigravity.

Мы запустили Antigravity для нашей команды поиска на прошлой неделе и продолжаем расширять его использование. Внедрение новых технологий в крупной организации сопряжено с трудностями управления изменениями, что обычно гораздо проще для небольших компаний, которые могут быстро адаптировать их.

Я собрал полное руководство по использованию Antigravity, охватывающее все, от базового кодирования до создания сложных автоматизированных рабочих процессов, которые я использую каждый день. Вы можете найти его в платной секции моего сообщества, The Search Bar. Кроме того, в следующий четверг члены The Search Bar Pro будут соревноваться в челлендже: Team Claude Code против Team Antigravity, чтобы определить, какая группа может создать лучший SEO-инструмент.

Понятно, что попытки использовать новые инструменты могут быть разочаровывающими. Однако я уверен, что изучение Antigravity сейчас станет значительным преимуществом, поскольку технологии искусственного интеллекта продолжают развиваться и становиться всё более важными.

3. Робототехника быстро развивается.

Сундар признал, что Google вышла в область робототехники преждевременно. Он объяснил, что недавние достижения в области искусственного интеллекта, наконец, делают идеи десятилетней или более давности возможными. Новые роботизированные модели Gemini от Google теперь демонстрируют передовые возможности в понимании и взаимодействии с физическими пространствами. Для дальнейшего развития этой работы Google снова сотрудничает с такими компаниями, как Boston Dynamics и Agile.

Наиболее интересной для меня была дискуссия о Wing для доставки дронами.

Мы быстро расширяем Wing, и мы ожидаем предложить услугу доставки примерно 40 миллионам американцев относительно скоро — не через несколько лет, а в ближайшем будущем.

Сундар Пичаи заявил, что Google рассматривает разработку собственного робототехнического и AI-оборудования как ключевой приоритет.

Мы подходим к этому с открытым разумом. Мой опыт работы в Waymo и разработки TPUs научил меня важности продвижения инноваций, особенно когда речь идет о безопасности и нормативных требованиях. Крайне важно получать прямые отзывы от пользователей через практический опыт использования продукта. Я считаю, что владение и разработка собственного оборудования станет ключевым преимуществом в долгосрочной перспективе.

4. Агентические Системы, Подобные OpenClaw, – Будущее

OpenClaw стал невероятно популярным в сети недавно, но я еще не создал свою собственную систему. Я не решаюсь, потому что мне нужно узнать больше о безопасности, чтобы убедиться, что она настроена безопасно.

Недавно я слышал, как Сундар Пичаи говорил о возможности разработки Google чего-то похожего на OpenClaw, и он выразил твердую уверенность в том, что этот тип технологий представляет будущее. Радует, что руководство признает потенциал открытого исходного кода и совместного искусственного интеллекта – и это определенно сигнализирует о том, куда Google, вероятно, движется со своей AI-стратегией. Как эксперт в SEO, я внимательно слежу за этим, поскольку такие достижения часто перестраивают поисковые ландшафты.

Мы стремимся предоставить пользователям возможность запускать длительные задачи, продолжая при этом надёжно и безопасно работать. Это требует тщательного рассмотрения идентификации пользователей и разрешений доступа. Мы считаем, что это направление развития – будущее, в котором системы могут действовать больше как агенты. Сделать это доступным для обычных пользователей – новая и захватывающая задача, которую мы исследуем, и это также приоритет для меня.

Вскоре удобные пользовательские интерфейсы будут поддерживаться базовым кодом, в сочетании с инструментами, опытом и безопасной инфраструктурой, необходимой для запуска где угодно – как в облаке, так и на личных устройствах. Все основные строительные блоки для этого начинают складываться.

Прямо сейчас очень небольшая группа людей – возможно, около 0.1% населения мира – активно создаёт технологии будущего. Они строят не только для себя, но и работают над тем, чтобы сделать эти инновации доступными каждому, и это действительно захватывающее развитие.

Google DeepMind недавно опубликовала инструкции в Twitter по использованию их новой модели с открытым исходным кодом, Gemma 4, с OpenClaw. Это знаменует начало потенциально захватывающей новой эры в том, как мы взаимодействуем с компьютерами!

5. Искусственный интеллект и AI-агенты значительно улучшатся в 2027 году.

Сундара спросили о том, когда он считает, что системы AI смогут работать полностью самостоятельно, без какого-либо участия человека. Он дважды указал на то, что 2027 год может стать переломным для этого достижения.

Как цифровой маркетолог, я предполагаю, что 2027 год станет переломным для того, как мы создаем контент. Я предвижу реальный сдвиг в наших рабочих процессах – мы можем начать с проверки вещей привычным способом, но затем полностью перейти к новому процессу. Я ожидаю, что эти изменения будут значительными и произойдут довольно быстро примерно в то время.

Интервью завершилось тем, что Сундар поделился тем, что он посчитал наиболее захватывающим. Он выделил потенциал размещения центров обработки данных в космосе как особенно волнующий, и эта деталь действительно выделилась.

Вчера я разговаривал с человеком, который рассказывал об улучшении, которое он сделал после первоначального обучения. Когда он это объяснял, я понял, что это приведет к значительному положительному изменению. Вот что интересно в этой работе. Я не хочу вдаваться в подробности о втором улучшении прямо сейчас, но мы поделимся деталями о нем в будущем.

Мне кажется, он говорит об агентном самосовершенствовании.

Мы сейчас выясняем, как использовать ИИ для создания вещей за нас. Я помню, когда впервые научился программировать, ChatGPT был полезным помощником. Я получал код от него, вставлял его в свой редактор, а затем отправлял любые сообщения об ошибках обратно в ChatGPT. Мы повторяли этот процесс, пока код, наконец, не заработал. Часто казалось, что я просто помощник для копирования и вставки. И это становится еще более правдой сегодня – такие инструменты, как Antigravity, Claude Code и ChatGPT Codex, теперь могут запускать код, выявлять проблемы и исправлять их с очень небольшим участием человека.

Я думаю, логично, что следующий этап развития ИИ будет включать в себя системы, которые будут учиться становиться лучше самостоятельно, без необходимости постоянных инструкций. Как только это произойдет, я считаю, что мы увидим, как ИИ улучшается гораздо быстрее и становится еще более полезным!

Смотрите также

2026-04-10 17:11

Основное обновление выполнено, ошибка GSC исправлена, Мюллер о гуру – SEO Pulse

Вот что нового на этой неделе: мы освещаем, когда вы можете начать видеть результаты от основных обновлений Google, насколько надежны ваши показатели показов и мысли генерального директора Google о будущем безопасности программного обеспечения с использованием ИИ.

Вот что важно для вас и вашей работы.

Обновление ядра за март 2026 года завершено.

Google завершила выпуск своего крупного обновления результатов поиска 8 апреля. Google подтвердила через свою панель состояния поиска, что обновление, начавшееся в марте 2026 года, теперь завершено.

Обновление было завершено за 12 дней, с 27 марта по 8 апреля. Это произошло в пределах двухнедельного прогноза Google и быстрее, чем предыдущее обновление в декабре, которое заняло 18 дней. Google посчитала это стандартным обновлением и не предоставила подробного объявления или новых инструкций. Это было третье подтвержденное обновление примерно за пять недель, последовавшее за обновлениями Discover в феврале и спам-обновлением в марте.

Почему это важно

Search Console теперь позволяет легко сравнивать производительность вашего сайта до и после внесения изменений. Google рекомендует подождать неделю после реализации этих изменений, прежде чем смотреть на результаты, поэтому вы сможете получить достоверные данные не ранее середины апреля.

Если рейтинг вашего сайта падает после крупного обновления Google, это не обязательно означает, что вы сделали что-то не так. Эти обновления — это просто переоценка Google качества контента во всем интернете — некоторые сайты естественным образом улучшат свой рейтинг, а другие могут опуститься. Роджер Монтти из Search Engine Journal предполагает, что недавняя закономерность спам-ориентированных обновлений *перед* основными обновлениями может быть преднамеренной, как бы сброс всего перед повторной оценкой того, что является высококачественным.

Что говорят специалисты по SEO

Как эксперт по SEO, я внимательно отслеживаю недавнее основное обновление Google и заметил кое-что интересное. Лили Рэй, вице-президент по SEO & AI Search в Amsive, отметила в X (ранее Twitter), что видео с YouTube стали чаще появляться в результатах поиска Google с момента начала обновления. Это говорит о том, что Google, возможно, сейчас отдаёт приоритет контенту с YouTube в своих рейтингах.

Как SEO-эксперт, я внимательно слежу за AI Overviews от Google, и я заметил значительный сдвиг. Клиент из моих был представлен там на прошлой неделе, но теперь, когда я проверяю, первые четыре результата – *все* YouTube-видео. Это действительно важный сигнал для всех, кто сосредоточен на поисковой видимости – мы видим явное предпочтение видеоконтента в этих AI-powered сводках, и нам нужно адаптировать наши стратегии, чтобы учесть это.

Похоже, что это обновление, как и предыдущее обновление Discover, было разработано для того, чтобы принести пользу YouTube.

Алейда Солис, SEO-консультант и основатель Orainti, проводит опрос в LinkedIn, чтобы понять, как недавное обновление повлияло на веб-сайты. На данный момент большинство респондентов сообщают либо о положительном влиянии, либо об отсутствии заметных изменений.

Прочитайте наш полный обзор: Google подтверждает, что Основное обновление марта 2026 года завершено.

Google исправляет ошибку в Search Console, которая завышала количество показов почти год.

Вот что вам нужно знать: Эта проблема существовала почти 11 месяцев, прежде чем Google объявил о ней. Важно отметить, что количество кликов и другие ключевые показатели не пострадали. Google сейчас выпускает исправление, которое займет несколько недель. В течение этого времени владельцы веб-сайтов могут заметить временное снижение зафиксированных показов.

Почему это важно

Если вы заметили недавнее увеличение количества показов, вероятной причиной является техническая проблема, возникшая в мае прошлого года. Исправление этой ошибки обновит данные в вашем отчёте о производительности, чтобы они были точными, но не изменит то, как люди на самом деле находили ваш сайт в поисковых системах. Предыдущие цифры просто записывались некорректно, поэтому ваша реальная поисковая видимость, вероятно, не изменилась.

Если вы делились данными о показах с клиентами или заинтересованными сторонами начиная с мая, эти данные были неточными. На данный момент сосредоточьтесь на данных о кликах, чтобы получить более надежную картину производительности, пока мы решаем проблему. Рассматривайте 13 мая 2025 года как ключевую дату для запоминания – как дату обновления системы – при анализе ваших отчетов о данных.

Что говорят специалисты по SEO

SEO-консультант Броди Кларк первым заметил проблему 30 марта, за четыре дня до того, как Google официально подтвердила её. Он объяснил проблему в посте, заявив:

Внимание: сейчас происходит что-то странное с данными Google Search Console.

Мы наблюдаем значительный рост просмотров в определенных десктопных позициях, очень похоже на то, что произошло после изменения #=100.

Кларк заметил внезапное увеличение просмотров для карточек товаров и изображений в нескольких интернет-магазинах и попросил команду Google Search Console разобраться в этой проблеме.

Крис Лонг, сооснователь Nectiv, поделился в LinkedIn, что Google ошибочно показывал завышенные цифры показов в отчётах Search Console в течение почти года. Он также отметил, что Google не сообщил, насколько снизятся эти цифры, но в учётных записях, которые он просмотрел, никаких немедленных изменений не наблюдалось.

Пичай заявляет, что ИИ может «взломать практически все программное обеспечение».

В недавнем подкасте с Патриком Коллисоном, генеральным директором Stripe, Сундар Пичаи из Google объяснил, что модели ИИ, вероятно, вызовут значительные проблемы для большинства существующего программного обеспечения. Они также обсудили проблемы создания необходимой инфраструктуры для ИИ и потенциальные проблемы безопасности, которые это вызывает.

Сундар Пичаи подчеркнул, что обеспечение безопасности программного обеспечения является серьезной проблемой для расширения AI, наряду с такими проблемами, как доступность памяти и энергии. Когда инвестор Элад Гил отметил, что стоимость zero-day exploits (уязвимостей безопасности) на черном рынке, похоже, снижается – потенциально потому, что AI помогает находить больше уязвимостей – Пичаи сказал, что полностью согласен с этим наблюдением.

Почему это важно

Безопасность веб-сайта может показаться не связанной напрямую с повседневными задачами SEO, но она тесно связана с базовыми технологиями, обеспечивающими работу ваших сайтов. С ускорением искусственного интеллекта в обнаружении и использовании слабых мест, время, которое злоумышленники имеют для использования уязвимостей, сокращается. Это означает, что еще более важно поддерживать программное обеспечение в актуальном состоянии и регулярно проверять наличие потенциальных проблем.

Заявления Сундара Пичаи были неформальными, а не официальным объявлением политики Google. Однако он возглавляет как команды, разрабатывающие ИИ Google, так и те, которые отслеживают угрозы безопасности. Эксперты Google по безопасности подчеркивают, что более быстрое выявление программных ошибок может создавать новые риски для безопасности.

Прочитайте наш полный обзор: Пичай говорит, что ИИ может «сломать практически все программное обеспечение»

Мюллер называет самопровозглашенных SEO-гуру «невежественными самозванцами».

Джон Мюллер из Google ответил на вопрос, поднятый экспертом по SEO Прети Гуптой, касающийся чрезмерного использования термина ‘guru’ в сфере SEO. Он поделился своими мыслями на платформе Bluesky.

Ключевые факты: Мюллер написал:

Когда кто-то называет себя экспертом в SEO, это обычно вызывает у меня тревогу. SEO — это не вопрос веры или утверждения, что знаешь всё — это постоянно развивающаяся область. Настоящий профессионал понимает, что будет совершать ошибки, и сосредотачивается на обучении и совершенствовании своих навыков.

Гупта отметил, что термин ‘guru’ имеет значительный культурный и духовный вес в Индии, и использование его для описания себя как SEO-эксперта умаляет его важность.

Почему это важно

Суть того, что сказал Мюллер, заключается в том, что SEO меняется со временем, и никто не знает всего наверняка.

Эта неделя выделила несколько ключевых проблем. Google продолжает выпускать основные обновления, не полностью объясняя изменения, и значительная ошибка в Search Console оставалась незамеченной почти год. Инструменты и данные, которые мы используем, не идеальны, и предположение, что у нас есть все ответы, — это рецепт ошибок. Важно помнить, что все постоянно развивается, и нам нужно оставаться гибкими.

Прочитайте полную статью Роджера Монти: Google’s Mueller On SEO Gurus Who Are «Clueless Imposters»

Тема Недели: Повседневная работа продолжается

Я наблюдаю за поисковым ландшафтом уже много лет, и прямо сейчас ажиотаж *очень сильный*. Эта неделя оказалась особенно показательной – Google завершила развертывание крупного основного обновления, они исправили сбой данных, и один из их представителей, по сути, сказал: «Эй, никто – даже мы – не обладает хрустальным шаром». Это хорошее напоминание о том, что все постоянно меняется, и всем нам нужно оставаться гибкими.

Хотя будущее, которое предвидит Сундар Пичаи, уже на горизонте, мы пока до него не добрались. На данный момент успех по-прежнему зависит от тщательного анализа данных Search Console, предоставления времени для стабилизации основных обновлений и честности в отношении своих знаний и ограничений.

То, что Роберт Мюллер сказал о SEO – что оно основано на данных, а не на мнении, и постоянно развивается – действительно суммирует ключевой вывод на этой неделе. Люди, которые будут преуспевать в будущем поиска, вероятно, те, кто внимательно изучает то, что происходит прямо сейчас.

Главные новости недели:

Вот основные ссылки из материалов этой недели.

Смотрите также

2026-04-10 16:11

Стремление Google к усилению данных на самом деле является стремлением к улучшению ставок.

Google неоднократно подчеркивал в этом году, что качество искусственного интеллекта полностью зависит от данных, используемых для его обучения.

Мы видели одно и то же сообщение, появляющееся во многих разных местах – от подкаста Ads Decoded до обновлений для менеджеров данных, инструкций по тегированию, партнерских инструментов и даже контента для разработчиков, такого как Ads DevCast. Похоже, что Google меняет то, как она хочет, чтобы люди создавали и улучшали свои рекламные кампании.

Рекламодатели не испытывают недостатка в данных – у них обычно их много. Реальная проблема заключается в том, как эти данные были организованы, отобраны и использованы в их процессах назначения ставок для рекламы с течением времени.

По мере того, как Google все больше полагается на искусственный интеллект для улучшения результатов рекламы, становится все более очевидной важность правильного отслеживания конверсий. Чем лучше Google понимает, что вы считаете успешным результатом, тем лучше будут работать ваши кампании.

Почему Google Подталкивает Рекламодателей К Переосмыслению Стратегии Конверсии

Долгое время рекламодатели сосредотачивались на простом добавлении большего количества методов отслеживания конверсий, вместо того чтобы постоянно улучшать те, которые у них уже были.

Функции добавлялись в систему на основе простых критериев: если что-то можно было отслеживать, это делалось; если данные можно было получать, они импортировались; и новые типы конвертаций обычно добавлялись в аккаунты без особых обсуждений.

На бумаге это звучит как более полный набор данных. Больше данных – лучше, верно?

На самом деле, это создало много шума, чтобы машины могли научиться отличать действительно важное.

Маркетинговые усилия часто пытаются стимулировать различные действия, даже если эти действия могут различаться по степени, в которой они указывают на заинтересованность клиента, их ценность или время совершения.

Иногда сильные сигналы, указывающие на потенциальных клиентов, тихи, потому что этим клиентам требуется некоторое время, чтобы совершить покупку. В других случаях сигналы появляются быстро, но не имеют сильной связи с реальными продажами. Часто компании объединяют все эти разные сигналы в один подход к ставкам, просто чтобы отслеживать всё, что может быть неэффективно.

Это работало достаточно хорошо, когда автоматизация была менее зависима от точных входных данных.

Проблема становится более серьезной, когда системы ставок полагаются на закономерности данных для принятия решений.

Где Большинство Настроек Конверсии Дают Сбой

Недавний эпизод подкаста Ads Decoded раскрыл обновленные рекомендации Google по генерации лидов. По сути, Google хочет, чтобы рекламодатели отслеживали весь процесс, который проходит клиент, и определяли конкретный момент, указывающий на искренний интерес – что-то, что Google может использовать для оптимизации ставок рекламы.

Это означает одновременный просмотр трех вещей:

  1. Насколько предсказуемо действие связано с реальной деловой ценностью.
  2. Как часто это происходит
  3. Как быстро это происходит после первоначального взаимодействия

Как цифровой маркетолог, я часто вижу, что рекламодатели автоматически сосредотачиваются на конечной конверсии – например, на окончательной продаже. Они предполагают, что оптимизация *только* для этого последнего шага даст им наилучшие результаты во всех областях. Но это не всегда так, и это на самом деле может ограничить потенциальный рост.

Проблема не в самой цели, а в том, насколько полезна информация на ранних этапах маркетингового процесса. Именно здесь часто терпят неудачу усилия по улучшению конверсий.

Когда событие происходит редко или требует много времени для наступления, это препятствует способности системы ставок к улучшению. Это может привести к снижению производительности, более непредсказуемым результатам и трудностям в эффективном росте.

Сосредоточение исключительно на увеличении первоначальной активности, не обеспечивая при этом качество, может привести к большим усилиям без какого-либо реального прогресса.

Выбор наилучшего сигнала данных означает его соответствие целям вашей кампании и обеспечение того, чтобы этот сигнал был как релевантным, так и полезным для формирования ставок.

Это изменение требует более продуманного подхода к настройке конверсий, чем это часто бывало в прошлом. Оно также требует от рекламодателей большей внимательности и последовательности, особенно сейчас, когда автоматизированные системы так сильно зависят от точных данных.

Почему Google уделяет столько внимания силе данных?

Google предпринимает чёткие и последовательные усилия, чтобы подчеркнуть важность качества данных. Это очевидно в недавних изменениях в его продуктах, в том, как они взаимодействуют с другими инструментами, в том, как категоризируются данные, и в коммуникациях Google с рекламодателями и разработчиками.

Как digital-маркетолог, я вижу реальную проблему с отслеживанием эффективности кампаний в последнее время. Стало намного сложнее получить чёткую картину того, что работает, из-за всех изменений, связанных с конфиденциальностью данных. Такие вещи, как новые ограничения браузеров и ограничения со стороны самих платформ, затрудняют измерение результатов так же точно, как раньше.

Рекламные системы Google сталкиваются с растущими требованиями, работая с ограниченными данными. Это означает, что информация, на которую они полагаются для принятия решений, подвергается еще более тщательному изучению.

Data Strength — решение Google для повышения качества и удобства использования данных веб-сайтов. Оно направлено на повышение надежности данных, упрощение их интеграции и улучшение производительности. Инструменты, такие как Data Manager, шлюз тегов и интеграции с другими платформами, все это способствует достижению этой цели.

Как digital-маркетолог, я очень рад тому, как мы расширяем интеграции с такими инструментами, как HubSpot, Zapier и Cloudflare. Это значительно облегчает работу рекламодателям! Вместо того, чтобы создавать сложные, индивидуальные решения, они теперь могут подключить нашу платформу к инструментам, которые они уже используют, и где хранятся их данные, с гораздо меньшими усилиями.

Это улучшает согласованность в том, как данные поступают в системы ставок.

Это также помогает Google улучшать свои автоматизированные системы, позволяя им работать лучше, даже когда данных мало или они неясны.

Указывает ли это на более широкую роль для Google?

Я также думаю, что за этим давлением стоит более значительный сдвиг.

Google всё больше внимания уделяет пониманию реальных результатов, которых достигают компании, а не просто отслеживанию кликов по рекламе. Комбинируя данные о клиентах из таких источников, как CRM-системы и оффлайн-продажи, с онлайн-активностью, Google может получить более полную картину ценных клиентов – выходя за рамки простых кликов или отправки форм, чтобы увидеть, что действительно способствует успеху.

Это безусловно может помочь рекламодателям улучшить эффективность.

Это также устанавливает Google в качестве комплексного бизнес-партнера, выходящего за рамки просто продажи рекламы. Это позволяет Google играть более важную роль в том, как компании отслеживают результаты, понимают, что важно, и связывают свой маркетинг с ощутимыми достижениями.

Где серверное добавление тегов вписывается в это?

Возникло некоторое недопонимание относительно серверного тегирования и его связи с текущими рекомендациями Google.

Они связаны, но это не одно и то же.

Google Tag Gateway управляет тем, как Google Tag отправляет данные и направляет запросы через серверы вашего собственного веб-сайта. Это помогает повысить надежность отслеживания и лучше защитить конфиденциальность пользователей.

Серверное добавление тегов — это комплексная стратегия, которая перемещает обработку данных из браузера посетителя веб-сайта на сервер, управляемый рекламодателем. Этот подход может ускорить время загрузки веб-сайта, предоставить рекламодателям больший контроль над своими данными и обеспечить более сложное отслеживание на различных устройствах и платформах.

Для рекламодателей, желающих сделать свои данные более надежными, не полностью изменяя свои системы, тег-шлюз часто является более простым местом для начала.

Настройка серверного тегирования обычно требует больше усилий и лучше всего подходит для компаний, которые обрабатывают большой объем данных или имеют строгие политики контроля данных.

Эти два метода совместимы и часто работают лучше всего при совместном использовании, как предлагает Google для более надёжной системы.

Вдумчивый подход к надежности данных

Хотя приоритизация качества данных — это хороший шаг, всё ещё важно критически мыслить и принимать взвешенные решения.

Облегчение настройки не гарантирует лучших результатов. Если вы не чётко определили, что вы хотите, чтобы люди делали после просмотра вашей рекламы, или если эти действия не соответствуют тому, чего пытается достичь ваша кампания, простое упрощение процесса не улучшит результаты.

Если вы маркетолог и не управляете отслеживанием конверсий самостоятельно, стоит поговорить со своей командой аналитики. Составьте список ключевых действий, которые вам необходимо измерять для своих маркетинговых кампаний (как онлайн, так и офлайн), а затем убедитесь, что они действительно отслеживаются.

Как digital-маркетолог, я вижу всё больше автоматизации в тегировании и сборе данных, что означает, что управление становится критически важным. Нам нужно убедиться, что каждый в команде понимает, *что* мы собираем за данные, *как* мы их используем, и что всё это соответствует политике нашей компании. Речь идёт об ответственном обращении с данными настолько же, насколько и о получении инсайтов.

Google указывает на то, что включение большего количества автоматического сбора данных может отправить дополнительную информацию на их серверы, поэтому важно проверить, какие данные собираются при настройке.

Также важно подумать о том, как изменения, сделанные для одной конкретной платформы, соотносятся с вашим общим способом отслеживания прогресса.

Основной упор Google на Data Strength в основном направлен на повышение собственной эффективности, что полезно. Однако, при принятии решения о том, куда вкладывать деньги и какие маркетинговые каналы использовать, важно также учитывать более широкие методы измерения.

Как Google укрепляет надежность данных во всей отрасли.

Что действительно поражает в этой тенденции, так это то, как часто мы видим её появление в различных местах.

Обновления продуктов — это лишь одна часть.

Google расширяет свои усилия, чтобы помочь маркетологам и разработчикам понимать и эффективно использовать данные. Через ресурсы, такие как Ads Decoded, они делятся практическими советами по таким темам, как планирование клиентского опыта и определение ключевых показателей для успешных кампаний.

В дополнение к этим усилиям, такие программы, как Ads DevCast, предназначены для более технически подкованных пользователей, охватывая такие темы, как Data Manager API и способы подключения систем данных. Цель состоит в том, чтобы поддерживать все команды – будь то те, кто сосредоточен на общем планировании кампании, или на технических деталях ее реализации.

API Data Manager поддерживает этот шаг к улучшению обработки данных. Google интегрирует такие инструменты, как Customer Match, в новую систему, созданную для безопасных подключений данных, расширенных настроек конфиденциальности и более упрощенного процесса использования ваших собственных данных первого уровня.

Эти обновления продукта, наряду с новыми партнёрствами и образовательными ресурсами, демонстрируют целенаправленный план по улучшению сбора, интеграции и применения данных во всей рекламной индустрии.

Что рекламодатели говорят о разговорах о силе данных.

Недавние переговоры между Google и рекламодателями о качестве данных и ценности лидов были весьма продуктивными.

Недавний эпизод ‘Beyond the Form Fill’ подкаста Ads Decoded был хорошо воспринят многими рекламодателями, особенно теми, кто работает в B2B-сегменте, поскольку он затрагивает их давние проблемы. Мелисса Мэки настоятельно рекомендовала этот эпизод всем рекламодателям, занимающимся генерацией лидов. Несколько маркетологов, включая Роберта Пека, также отметили важность фильтрации бот-трафика из их B2B-кампаний для повышения качества лидов.

Google опубликовал несколько статей и провёл интервью с профессионалами индустрии, подчеркивая, насколько важны надёжные данные. Эти источники постоянно передавали одно и то же сообщение, и тогда я заметил, что всё больше рекламодателей начинают понимать эту связь.

Недавно я присоединился к действительно содержательному разговору с Камалом Джанардханом, старшим директором по управлению продуктами в Google, и Джеффом Зауэром, генеральным директором MeasureU. Это был отличный обмен идеями, и я смог внести свой вклад как эксперт в области SEO. Мы обсудили широкий спектр тем, и я нашел их взгляды невероятно ценными. Всегда полезно общаться с лидерами в сфере технологий и маркетинга!

Что действительно выделяется для меня, так это то, что люди часто видят AI просто как инструмент, а не как общий план. Многие лидеры ошибочно полагают, что AI может исправить проблемы, вызванные плохим принятием решений. Эта статья идеально объясняет, почему наличие хороших данных является абсолютно необходимым, если вы хотите, чтобы AI принес реальные результаты.

Джонатан Рид похвалил обновленный акцент на качество данных, объяснив, что целенаправленная работа его команды в этой области привела к значительному улучшению конверсий и существенному снижению затрат.

Что это значит для ваших кампаний?

Этот сдвиг станет заметен довольно быстро, как только вы посмотрите, как на самом деле настроены ваши кампании.

Многие компании настраивают отслеживание конверсий, а затем не обновляют его. Однако, если данные, используемые вашими рекламными кампаниями, неточно отражают то, что люди *на самом деле* ищут, это затрудняет оптимизацию ставок системой и получение хороших результатов.

Это часто становится заметно из-за непредсказуемой производительности и трудностей с расширением вашей системы. Даже незначительные корректировки могут привести к серьезным, нестабильным изменениям.

Эти проблемы не вызваны одной настройкой или изменением. Обычно они возникают, потому что система учится на обрабатываемой ей информации.

Именно поэтому это стремление к Силе Данных имеет такое большое значение.

Это побуждает к тщательному анализу сигналов, направляющих оптимизацию, гарантируя их достоверность и реальную связь с положительными бизнес-результатами.

Иногда улучшение чего-либо означает более эффективную связь данных о ваших клиентах. В других случаях это требует исправления вашей системы тегирования или пересмотра того, как вы определяете конверсии.

По мере того, как Google всё больше сосредотачивается на этом подходе, пользователи, которые активно управляют своими данными, вероятно, получат лучший опыт, чем те, кто этого не делает.

Смотрите также

2026-04-10 14:42