Что я узнал о будущем поиска и ИИ из последнего интервью Сундара Пичаи.

Мне очень понравилось это интервью с Сундаром Пичаи, которое взяли Джон Коллисон и Элад Гил из Stripe.

https://www.youtube.com/watch?v=bTA8sjgvA4c

Вот пять самых интересных вещей, которые я узнал.

1. Поиск всё ещё будет существовать в будущем, но большая его часть будет агентивной.

Сундара спросили, заменят ли агенты Search. Он ответил:

В будущем, вместо того, чтобы просто искать информацию, Поиск поможет вам реально *делать* вещи. Он будет выполнять несколько задач для вас одновременно, как будто происходит много разговоров одновременно.

И также, поиск изменится, чтобы мы рассматривали его как менеджера агентов.

Технология поиска постоянно меняется. Она движется к системе, в которой она управляет множеством автоматизированных задач за вас. Подобно тому, как я сейчас использую Antigravity, с различными агентами, выполняющими разные вещи, я представляю себе, что поиск станет способным координировать такие действия, в конечном итоге делая гораздо больше для пользователя.

Он считает, что ИИ способствует переходу к более глубоким исследованиям и тому, что более длительные, непрерывные задачи становятся обычным явлением. Он также предсказывает, что мы увидим изменения в физическом дизайне устройств.

2. Google Использует Антигравитацию Внутренне

Я большой поклонник Antigravity, IDE и менеджера агентов от Google. Я использовал его для создания множества проектов, таких как RSS-ридер, инструмент для создания скриншотов с функциями аннотаций и автоматизированные рабочие процессы, которые публикуют мои Google Docs в WordPress. Я также создал инструменты для анализа данных из Google Search Console и Google Analytics 4. Хотя я думаю, что Claude Cowork и Claude Code потрясающие, я все еще предпочитаю работать с Antigravity.

Как опытный SEO-специалист, я изучал, как Google обрабатывает сложные структуры веб-сайтов, и это увлекательно. Оказывается, у них есть система, удивительно похожая на то, что мы в индустрии называем ‘Antigravity’, но внутри они называют её ‘Jet Ski’. По сути, это одна и та же концепция – способ понимать и управлять тем, как разные части сайта связаны друг с другом, что имеет огромное значение для индексации и ранжирования.

Сандар сказал, что Google DeepMind и Google Software Engineers используют его:

Мы наблюдаем, как команды, особенно GDM и некоторые из наших групп разработчиков программного обеспечения, значительно меняют свой подход к работе. Они внедряют инструмент, который мы внутренне называем ‘Jet Ski’ – известный внешне как ‘Antigravity’ – который фундаментально меняет их процесс. Это как переход в совершенно новую среду управления агентами с обновленными рабочими процессами.

Он также использует его сам.

Я использую наш внутренний инструмент, Antigravity, чтобы быстро узнать, что люди говорят о новых запусках. Я могу просто спросить его: «Какие пять самых негативных комментариев?» и он дает мне ответ. Это значительно упростило мою работу – раньше я тратил гораздо больше времени на сбор этой информации самостоятельно. Теперь мне в этом помогает ИИ-ассистент.

Также, только на прошлой неделе, команда Google Search начала использовать Antigravity.

Мы запустили Antigravity для нашей команды поиска на прошлой неделе и продолжаем расширять его использование. Внедрение новых технологий в крупной организации сопряжено с трудностями управления изменениями, что обычно гораздо проще для небольших компаний, которые могут быстро адаптировать их.

Я собрал полное руководство по использованию Antigravity, охватывающее все, от базового кодирования до создания сложных автоматизированных рабочих процессов, которые я использую каждый день. Вы можете найти его в платной секции моего сообщества, The Search Bar. Кроме того, в следующий четверг члены The Search Bar Pro будут соревноваться в челлендже: Team Claude Code против Team Antigravity, чтобы определить, какая группа может создать лучший SEO-инструмент.

Понятно, что попытки использовать новые инструменты могут быть разочаровывающими. Однако я уверен, что изучение Antigravity сейчас станет значительным преимуществом, поскольку технологии искусственного интеллекта продолжают развиваться и становиться всё более важными.

3. Робототехника быстро развивается.

Сундар признал, что Google вышла в область робототехники преждевременно. Он объяснил, что недавние достижения в области искусственного интеллекта, наконец, делают идеи десятилетней или более давности возможными. Новые роботизированные модели Gemini от Google теперь демонстрируют передовые возможности в понимании и взаимодействии с физическими пространствами. Для дальнейшего развития этой работы Google снова сотрудничает с такими компаниями, как Boston Dynamics и Agile.

Наиболее интересной для меня была дискуссия о Wing для доставки дронами.

Мы быстро расширяем Wing, и мы ожидаем предложить услугу доставки примерно 40 миллионам американцев относительно скоро — не через несколько лет, а в ближайшем будущем.

Сундар Пичаи заявил, что Google рассматривает разработку собственного робототехнического и AI-оборудования как ключевой приоритет.

Мы подходим к этому с открытым разумом. Мой опыт работы в Waymo и разработки TPUs научил меня важности продвижения инноваций, особенно когда речь идет о безопасности и нормативных требованиях. Крайне важно получать прямые отзывы от пользователей через практический опыт использования продукта. Я считаю, что владение и разработка собственного оборудования станет ключевым преимуществом в долгосрочной перспективе.

4. Агентические Системы, Подобные OpenClaw, – Будущее

OpenClaw стал невероятно популярным в сети недавно, но я еще не создал свою собственную систему. Я не решаюсь, потому что мне нужно узнать больше о безопасности, чтобы убедиться, что она настроена безопасно.

Недавно я слышал, как Сундар Пичаи говорил о возможности разработки Google чего-то похожего на OpenClaw, и он выразил твердую уверенность в том, что этот тип технологий представляет будущее. Радует, что руководство признает потенциал открытого исходного кода и совместного искусственного интеллекта – и это определенно сигнализирует о том, куда Google, вероятно, движется со своей AI-стратегией. Как эксперт в SEO, я внимательно слежу за этим, поскольку такие достижения часто перестраивают поисковые ландшафты.

Мы стремимся предоставить пользователям возможность запускать длительные задачи, продолжая при этом надёжно и безопасно работать. Это требует тщательного рассмотрения идентификации пользователей и разрешений доступа. Мы считаем, что это направление развития – будущее, в котором системы могут действовать больше как агенты. Сделать это доступным для обычных пользователей – новая и захватывающая задача, которую мы исследуем, и это также приоритет для меня.

Вскоре удобные пользовательские интерфейсы будут поддерживаться базовым кодом, в сочетании с инструментами, опытом и безопасной инфраструктурой, необходимой для запуска где угодно – как в облаке, так и на личных устройствах. Все основные строительные блоки для этого начинают складываться.

Прямо сейчас очень небольшая группа людей – возможно, около 0.1% населения мира – активно создаёт технологии будущего. Они строят не только для себя, но и работают над тем, чтобы сделать эти инновации доступными каждому, и это действительно захватывающее развитие.

Google DeepMind недавно опубликовала инструкции в Twitter по использованию их новой модели с открытым исходным кодом, Gemma 4, с OpenClaw. Это знаменует начало потенциально захватывающей новой эры в том, как мы взаимодействуем с компьютерами!

5. Искусственный интеллект и AI-агенты значительно улучшатся в 2027 году.

Сундара спросили о том, когда он считает, что системы AI смогут работать полностью самостоятельно, без какого-либо участия человека. Он дважды указал на то, что 2027 год может стать переломным для этого достижения.

Как цифровой маркетолог, я предполагаю, что 2027 год станет переломным для того, как мы создаем контент. Я предвижу реальный сдвиг в наших рабочих процессах – мы можем начать с проверки вещей привычным способом, но затем полностью перейти к новому процессу. Я ожидаю, что эти изменения будут значительными и произойдут довольно быстро примерно в то время.

Интервью завершилось тем, что Сундар поделился тем, что он посчитал наиболее захватывающим. Он выделил потенциал размещения центров обработки данных в космосе как особенно волнующий, и эта деталь действительно выделилась.

Вчера я разговаривал с человеком, который рассказывал об улучшении, которое он сделал после первоначального обучения. Когда он это объяснял, я понял, что это приведет к значительному положительному изменению. Вот что интересно в этой работе. Я не хочу вдаваться в подробности о втором улучшении прямо сейчас, но мы поделимся деталями о нем в будущем.

Мне кажется, он говорит об агентном самосовершенствовании.

Мы сейчас выясняем, как использовать ИИ для создания вещей за нас. Я помню, когда впервые научился программировать, ChatGPT был полезным помощником. Я получал код от него, вставлял его в свой редактор, а затем отправлял любые сообщения об ошибках обратно в ChatGPT. Мы повторяли этот процесс, пока код, наконец, не заработал. Часто казалось, что я просто помощник для копирования и вставки. И это становится еще более правдой сегодня – такие инструменты, как Antigravity, Claude Code и ChatGPT Codex, теперь могут запускать код, выявлять проблемы и исправлять их с очень небольшим участием человека.

Я думаю, логично, что следующий этап развития ИИ будет включать в себя системы, которые будут учиться становиться лучше самостоятельно, без необходимости постоянных инструкций. Как только это произойдет, я считаю, что мы увидим, как ИИ улучшается гораздо быстрее и становится еще более полезным!

Смотрите также

2026-04-10 17:11

Основное обновление выполнено, ошибка GSC исправлена, Мюллер о гуру – SEO Pulse

Вот что нового на этой неделе: мы освещаем, когда вы можете начать видеть результаты от основных обновлений Google, насколько надежны ваши показатели показов и мысли генерального директора Google о будущем безопасности программного обеспечения с использованием ИИ.

Вот что важно для вас и вашей работы.

Обновление ядра за март 2026 года завершено.

Google завершила выпуск своего крупного обновления результатов поиска 8 апреля. Google подтвердила через свою панель состояния поиска, что обновление, начавшееся в марте 2026 года, теперь завершено.

Обновление было завершено за 12 дней, с 27 марта по 8 апреля. Это произошло в пределах двухнедельного прогноза Google и быстрее, чем предыдущее обновление в декабре, которое заняло 18 дней. Google посчитала это стандартным обновлением и не предоставила подробного объявления или новых инструкций. Это было третье подтвержденное обновление примерно за пять недель, последовавшее за обновлениями Discover в феврале и спам-обновлением в марте.

Почему это важно

Search Console теперь позволяет легко сравнивать производительность вашего сайта до и после внесения изменений. Google рекомендует подождать неделю после реализации этих изменений, прежде чем смотреть на результаты, поэтому вы сможете получить достоверные данные не ранее середины апреля.

Если рейтинг вашего сайта падает после крупного обновления Google, это не обязательно означает, что вы сделали что-то не так. Эти обновления — это просто переоценка Google качества контента во всем интернете — некоторые сайты естественным образом улучшат свой рейтинг, а другие могут опуститься. Роджер Монтти из Search Engine Journal предполагает, что недавняя закономерность спам-ориентированных обновлений *перед* основными обновлениями может быть преднамеренной, как бы сброс всего перед повторной оценкой того, что является высококачественным.

Что говорят специалисты по SEO

Как эксперт по SEO, я внимательно отслеживаю недавнее основное обновление Google и заметил кое-что интересное. Лили Рэй, вице-президент по SEO & AI Search в Amsive, отметила в X (ранее Twitter), что видео с YouTube стали чаще появляться в результатах поиска Google с момента начала обновления. Это говорит о том, что Google, возможно, сейчас отдаёт приоритет контенту с YouTube в своих рейтингах.

Как SEO-эксперт, я внимательно слежу за AI Overviews от Google, и я заметил значительный сдвиг. Клиент из моих был представлен там на прошлой неделе, но теперь, когда я проверяю, первые четыре результата – *все* YouTube-видео. Это действительно важный сигнал для всех, кто сосредоточен на поисковой видимости – мы видим явное предпочтение видеоконтента в этих AI-powered сводках, и нам нужно адаптировать наши стратегии, чтобы учесть это.

Похоже, что это обновление, как и предыдущее обновление Discover, было разработано для того, чтобы принести пользу YouTube.

Алейда Солис, SEO-консультант и основатель Orainti, проводит опрос в LinkedIn, чтобы понять, как недавное обновление повлияло на веб-сайты. На данный момент большинство респондентов сообщают либо о положительном влиянии, либо об отсутствии заметных изменений.

Прочитайте наш полный обзор: Google подтверждает, что Основное обновление марта 2026 года завершено.

Google исправляет ошибку в Search Console, которая завышала количество показов почти год.

Вот что вам нужно знать: Эта проблема существовала почти 11 месяцев, прежде чем Google объявил о ней. Важно отметить, что количество кликов и другие ключевые показатели не пострадали. Google сейчас выпускает исправление, которое займет несколько недель. В течение этого времени владельцы веб-сайтов могут заметить временное снижение зафиксированных показов.

Почему это важно

Если вы заметили недавнее увеличение количества показов, вероятной причиной является техническая проблема, возникшая в мае прошлого года. Исправление этой ошибки обновит данные в вашем отчёте о производительности, чтобы они были точными, но не изменит то, как люди на самом деле находили ваш сайт в поисковых системах. Предыдущие цифры просто записывались некорректно, поэтому ваша реальная поисковая видимость, вероятно, не изменилась.

Если вы делились данными о показах с клиентами или заинтересованными сторонами начиная с мая, эти данные были неточными. На данный момент сосредоточьтесь на данных о кликах, чтобы получить более надежную картину производительности, пока мы решаем проблему. Рассматривайте 13 мая 2025 года как ключевую дату для запоминания – как дату обновления системы – при анализе ваших отчетов о данных.

Что говорят специалисты по SEO

SEO-консультант Броди Кларк первым заметил проблему 30 марта, за четыре дня до того, как Google официально подтвердила её. Он объяснил проблему в посте, заявив:

Внимание: сейчас происходит что-то странное с данными Google Search Console.

Мы наблюдаем значительный рост просмотров в определенных десктопных позициях, очень похоже на то, что произошло после изменения #=100.

Кларк заметил внезапное увеличение просмотров для карточек товаров и изображений в нескольких интернет-магазинах и попросил команду Google Search Console разобраться в этой проблеме.

Крис Лонг, сооснователь Nectiv, поделился в LinkedIn, что Google ошибочно показывал завышенные цифры показов в отчётах Search Console в течение почти года. Он также отметил, что Google не сообщил, насколько снизятся эти цифры, но в учётных записях, которые он просмотрел, никаких немедленных изменений не наблюдалось.

Пичай заявляет, что ИИ может «взломать практически все программное обеспечение».

В недавнем подкасте с Патриком Коллисоном, генеральным директором Stripe, Сундар Пичаи из Google объяснил, что модели ИИ, вероятно, вызовут значительные проблемы для большинства существующего программного обеспечения. Они также обсудили проблемы создания необходимой инфраструктуры для ИИ и потенциальные проблемы безопасности, которые это вызывает.

Сундар Пичаи подчеркнул, что обеспечение безопасности программного обеспечения является серьезной проблемой для расширения AI, наряду с такими проблемами, как доступность памяти и энергии. Когда инвестор Элад Гил отметил, что стоимость zero-day exploits (уязвимостей безопасности) на черном рынке, похоже, снижается – потенциально потому, что AI помогает находить больше уязвимостей – Пичаи сказал, что полностью согласен с этим наблюдением.

Почему это важно

Безопасность веб-сайта может показаться не связанной напрямую с повседневными задачами SEO, но она тесно связана с базовыми технологиями, обеспечивающими работу ваших сайтов. С ускорением искусственного интеллекта в обнаружении и использовании слабых мест, время, которое злоумышленники имеют для использования уязвимостей, сокращается. Это означает, что еще более важно поддерживать программное обеспечение в актуальном состоянии и регулярно проверять наличие потенциальных проблем.

Заявления Сундара Пичаи были неформальными, а не официальным объявлением политики Google. Однако он возглавляет как команды, разрабатывающие ИИ Google, так и те, которые отслеживают угрозы безопасности. Эксперты Google по безопасности подчеркивают, что более быстрое выявление программных ошибок может создавать новые риски для безопасности.

Прочитайте наш полный обзор: Пичай говорит, что ИИ может «сломать практически все программное обеспечение»

Мюллер называет самопровозглашенных SEO-гуру «невежественными самозванцами».

Джон Мюллер из Google ответил на вопрос, поднятый экспертом по SEO Прети Гуптой, касающийся чрезмерного использования термина ‘guru’ в сфере SEO. Он поделился своими мыслями на платформе Bluesky.

Ключевые факты: Мюллер написал:

Когда кто-то называет себя экспертом в SEO, это обычно вызывает у меня тревогу. SEO — это не вопрос веры или утверждения, что знаешь всё — это постоянно развивающаяся область. Настоящий профессионал понимает, что будет совершать ошибки, и сосредотачивается на обучении и совершенствовании своих навыков.

Гупта отметил, что термин ‘guru’ имеет значительный культурный и духовный вес в Индии, и использование его для описания себя как SEO-эксперта умаляет его важность.

Почему это важно

Суть того, что сказал Мюллер, заключается в том, что SEO меняется со временем, и никто не знает всего наверняка.

Эта неделя выделила несколько ключевых проблем. Google продолжает выпускать основные обновления, не полностью объясняя изменения, и значительная ошибка в Search Console оставалась незамеченной почти год. Инструменты и данные, которые мы используем, не идеальны, и предположение, что у нас есть все ответы, — это рецепт ошибок. Важно помнить, что все постоянно развивается, и нам нужно оставаться гибкими.

Прочитайте полную статью Роджера Монти: Google’s Mueller On SEO Gurus Who Are «Clueless Imposters»

Тема Недели: Повседневная работа продолжается

Я наблюдаю за поисковым ландшафтом уже много лет, и прямо сейчас ажиотаж *очень сильный*. Эта неделя оказалась особенно показательной – Google завершила развертывание крупного основного обновления, они исправили сбой данных, и один из их представителей, по сути, сказал: «Эй, никто – даже мы – не обладает хрустальным шаром». Это хорошее напоминание о том, что все постоянно меняется, и всем нам нужно оставаться гибкими.

Хотя будущее, которое предвидит Сундар Пичаи, уже на горизонте, мы пока до него не добрались. На данный момент успех по-прежнему зависит от тщательного анализа данных Search Console, предоставления времени для стабилизации основных обновлений и честности в отношении своих знаний и ограничений.

То, что Роберт Мюллер сказал о SEO – что оно основано на данных, а не на мнении, и постоянно развивается – действительно суммирует ключевой вывод на этой неделе. Люди, которые будут преуспевать в будущем поиска, вероятно, те, кто внимательно изучает то, что происходит прямо сейчас.

Главные новости недели:

Вот основные ссылки из материалов этой недели.

Смотрите также

2026-04-10 16:11

Стремление Google к усилению данных на самом деле является стремлением к улучшению ставок.

Google неоднократно подчеркивал в этом году, что качество искусственного интеллекта полностью зависит от данных, используемых для его обучения.

Мы видели одно и то же сообщение, появляющееся во многих разных местах – от подкаста Ads Decoded до обновлений для менеджеров данных, инструкций по тегированию, партнерских инструментов и даже контента для разработчиков, такого как Ads DevCast. Похоже, что Google меняет то, как она хочет, чтобы люди создавали и улучшали свои рекламные кампании.

Рекламодатели не испытывают недостатка в данных – у них обычно их много. Реальная проблема заключается в том, как эти данные были организованы, отобраны и использованы в их процессах назначения ставок для рекламы с течением времени.

По мере того, как Google все больше полагается на искусственный интеллект для улучшения результатов рекламы, становится все более очевидной важность правильного отслеживания конверсий. Чем лучше Google понимает, что вы считаете успешным результатом, тем лучше будут работать ваши кампании.

Почему Google Подталкивает Рекламодателей К Переосмыслению Стратегии Конверсии

Долгое время рекламодатели сосредотачивались на простом добавлении большего количества методов отслеживания конверсий, вместо того чтобы постоянно улучшать те, которые у них уже были.

Функции добавлялись в систему на основе простых критериев: если что-то можно было отслеживать, это делалось; если данные можно было получать, они импортировались; и новые типы конвертаций обычно добавлялись в аккаунты без особых обсуждений.

На бумаге это звучит как более полный набор данных. Больше данных – лучше, верно?

На самом деле, это создало много шума, чтобы машины могли научиться отличать действительно важное.

Маркетинговые усилия часто пытаются стимулировать различные действия, даже если эти действия могут различаться по степени, в которой они указывают на заинтересованность клиента, их ценность или время совершения.

Иногда сильные сигналы, указывающие на потенциальных клиентов, тихи, потому что этим клиентам требуется некоторое время, чтобы совершить покупку. В других случаях сигналы появляются быстро, но не имеют сильной связи с реальными продажами. Часто компании объединяют все эти разные сигналы в один подход к ставкам, просто чтобы отслеживать всё, что может быть неэффективно.

Это работало достаточно хорошо, когда автоматизация была менее зависима от точных входных данных.

Проблема становится более серьезной, когда системы ставок полагаются на закономерности данных для принятия решений.

Где Большинство Настроек Конверсии Дают Сбой

Недавний эпизод подкаста Ads Decoded раскрыл обновленные рекомендации Google по генерации лидов. По сути, Google хочет, чтобы рекламодатели отслеживали весь процесс, который проходит клиент, и определяли конкретный момент, указывающий на искренний интерес – что-то, что Google может использовать для оптимизации ставок рекламы.

Это означает одновременный просмотр трех вещей:

  1. Насколько предсказуемо действие связано с реальной деловой ценностью.
  2. Как часто это происходит
  3. Как быстро это происходит после первоначального взаимодействия

Как цифровой маркетолог, я часто вижу, что рекламодатели автоматически сосредотачиваются на конечной конверсии – например, на окончательной продаже. Они предполагают, что оптимизация *только* для этого последнего шага даст им наилучшие результаты во всех областях. Но это не всегда так, и это на самом деле может ограничить потенциальный рост.

Проблема не в самой цели, а в том, насколько полезна информация на ранних этапах маркетингового процесса. Именно здесь часто терпят неудачу усилия по улучшению конверсий.

Когда событие происходит редко или требует много времени для наступления, это препятствует способности системы ставок к улучшению. Это может привести к снижению производительности, более непредсказуемым результатам и трудностям в эффективном росте.

Сосредоточение исключительно на увеличении первоначальной активности, не обеспечивая при этом качество, может привести к большим усилиям без какого-либо реального прогресса.

Выбор наилучшего сигнала данных означает его соответствие целям вашей кампании и обеспечение того, чтобы этот сигнал был как релевантным, так и полезным для формирования ставок.

Это изменение требует более продуманного подхода к настройке конверсий, чем это часто бывало в прошлом. Оно также требует от рекламодателей большей внимательности и последовательности, особенно сейчас, когда автоматизированные системы так сильно зависят от точных данных.

Почему Google уделяет столько внимания силе данных?

Google предпринимает чёткие и последовательные усилия, чтобы подчеркнуть важность качества данных. Это очевидно в недавних изменениях в его продуктах, в том, как они взаимодействуют с другими инструментами, в том, как категоризируются данные, и в коммуникациях Google с рекламодателями и разработчиками.

Как digital-маркетолог, я вижу реальную проблему с отслеживанием эффективности кампаний в последнее время. Стало намного сложнее получить чёткую картину того, что работает, из-за всех изменений, связанных с конфиденциальностью данных. Такие вещи, как новые ограничения браузеров и ограничения со стороны самих платформ, затрудняют измерение результатов так же точно, как раньше.

Рекламные системы Google сталкиваются с растущими требованиями, работая с ограниченными данными. Это означает, что информация, на которую они полагаются для принятия решений, подвергается еще более тщательному изучению.

Data Strength — решение Google для повышения качества и удобства использования данных веб-сайтов. Оно направлено на повышение надежности данных, упрощение их интеграции и улучшение производительности. Инструменты, такие как Data Manager, шлюз тегов и интеграции с другими платформами, все это способствует достижению этой цели.

Как digital-маркетолог, я очень рад тому, как мы расширяем интеграции с такими инструментами, как HubSpot, Zapier и Cloudflare. Это значительно облегчает работу рекламодателям! Вместо того, чтобы создавать сложные, индивидуальные решения, они теперь могут подключить нашу платформу к инструментам, которые они уже используют, и где хранятся их данные, с гораздо меньшими усилиями.

Это улучшает согласованность в том, как данные поступают в системы ставок.

Это также помогает Google улучшать свои автоматизированные системы, позволяя им работать лучше, даже когда данных мало или они неясны.

Указывает ли это на более широкую роль для Google?

Я также думаю, что за этим давлением стоит более значительный сдвиг.

Google всё больше внимания уделяет пониманию реальных результатов, которых достигают компании, а не просто отслеживанию кликов по рекламе. Комбинируя данные о клиентах из таких источников, как CRM-системы и оффлайн-продажи, с онлайн-активностью, Google может получить более полную картину ценных клиентов – выходя за рамки простых кликов или отправки форм, чтобы увидеть, что действительно способствует успеху.

Это безусловно может помочь рекламодателям улучшить эффективность.

Это также устанавливает Google в качестве комплексного бизнес-партнера, выходящего за рамки просто продажи рекламы. Это позволяет Google играть более важную роль в том, как компании отслеживают результаты, понимают, что важно, и связывают свой маркетинг с ощутимыми достижениями.

Где серверное добавление тегов вписывается в это?

Возникло некоторое недопонимание относительно серверного тегирования и его связи с текущими рекомендациями Google.

Они связаны, но это не одно и то же.

Google Tag Gateway управляет тем, как Google Tag отправляет данные и направляет запросы через серверы вашего собственного веб-сайта. Это помогает повысить надежность отслеживания и лучше защитить конфиденциальность пользователей.

Серверное добавление тегов — это комплексная стратегия, которая перемещает обработку данных из браузера посетителя веб-сайта на сервер, управляемый рекламодателем. Этот подход может ускорить время загрузки веб-сайта, предоставить рекламодателям больший контроль над своими данными и обеспечить более сложное отслеживание на различных устройствах и платформах.

Для рекламодателей, желающих сделать свои данные более надежными, не полностью изменяя свои системы, тег-шлюз часто является более простым местом для начала.

Настройка серверного тегирования обычно требует больше усилий и лучше всего подходит для компаний, которые обрабатывают большой объем данных или имеют строгие политики контроля данных.

Эти два метода совместимы и часто работают лучше всего при совместном использовании, как предлагает Google для более надёжной системы.

Вдумчивый подход к надежности данных

Хотя приоритизация качества данных — это хороший шаг, всё ещё важно критически мыслить и принимать взвешенные решения.

Облегчение настройки не гарантирует лучших результатов. Если вы не чётко определили, что вы хотите, чтобы люди делали после просмотра вашей рекламы, или если эти действия не соответствуют тому, чего пытается достичь ваша кампания, простое упрощение процесса не улучшит результаты.

Если вы маркетолог и не управляете отслеживанием конверсий самостоятельно, стоит поговорить со своей командой аналитики. Составьте список ключевых действий, которые вам необходимо измерять для своих маркетинговых кампаний (как онлайн, так и офлайн), а затем убедитесь, что они действительно отслеживаются.

Как digital-маркетолог, я вижу всё больше автоматизации в тегировании и сборе данных, что означает, что управление становится критически важным. Нам нужно убедиться, что каждый в команде понимает, *что* мы собираем за данные, *как* мы их используем, и что всё это соответствует политике нашей компании. Речь идёт об ответственном обращении с данными настолько же, насколько и о получении инсайтов.

Google указывает на то, что включение большего количества автоматического сбора данных может отправить дополнительную информацию на их серверы, поэтому важно проверить, какие данные собираются при настройке.

Также важно подумать о том, как изменения, сделанные для одной конкретной платформы, соотносятся с вашим общим способом отслеживания прогресса.

Основной упор Google на Data Strength в основном направлен на повышение собственной эффективности, что полезно. Однако, при принятии решения о том, куда вкладывать деньги и какие маркетинговые каналы использовать, важно также учитывать более широкие методы измерения.

Как Google укрепляет надежность данных во всей отрасли.

Что действительно поражает в этой тенденции, так это то, как часто мы видим её появление в различных местах.

Обновления продуктов — это лишь одна часть.

Google расширяет свои усилия, чтобы помочь маркетологам и разработчикам понимать и эффективно использовать данные. Через ресурсы, такие как Ads Decoded, они делятся практическими советами по таким темам, как планирование клиентского опыта и определение ключевых показателей для успешных кампаний.

В дополнение к этим усилиям, такие программы, как Ads DevCast, предназначены для более технически подкованных пользователей, охватывая такие темы, как Data Manager API и способы подключения систем данных. Цель состоит в том, чтобы поддерживать все команды – будь то те, кто сосредоточен на общем планировании кампании, или на технических деталях ее реализации.

API Data Manager поддерживает этот шаг к улучшению обработки данных. Google интегрирует такие инструменты, как Customer Match, в новую систему, созданную для безопасных подключений данных, расширенных настроек конфиденциальности и более упрощенного процесса использования ваших собственных данных первого уровня.

Эти обновления продукта, наряду с новыми партнёрствами и образовательными ресурсами, демонстрируют целенаправленный план по улучшению сбора, интеграции и применения данных во всей рекламной индустрии.

Что рекламодатели говорят о разговорах о силе данных.

Недавние переговоры между Google и рекламодателями о качестве данных и ценности лидов были весьма продуктивными.

Недавний эпизод ‘Beyond the Form Fill’ подкаста Ads Decoded был хорошо воспринят многими рекламодателями, особенно теми, кто работает в B2B-сегменте, поскольку он затрагивает их давние проблемы. Мелисса Мэки настоятельно рекомендовала этот эпизод всем рекламодателям, занимающимся генерацией лидов. Несколько маркетологов, включая Роберта Пека, также отметили важность фильтрации бот-трафика из их B2B-кампаний для повышения качества лидов.

Google опубликовал несколько статей и провёл интервью с профессионалами индустрии, подчеркивая, насколько важны надёжные данные. Эти источники постоянно передавали одно и то же сообщение, и тогда я заметил, что всё больше рекламодателей начинают понимать эту связь.

Недавно я присоединился к действительно содержательному разговору с Камалом Джанардханом, старшим директором по управлению продуктами в Google, и Джеффом Зауэром, генеральным директором MeasureU. Это был отличный обмен идеями, и я смог внести свой вклад как эксперт в области SEO. Мы обсудили широкий спектр тем, и я нашел их взгляды невероятно ценными. Всегда полезно общаться с лидерами в сфере технологий и маркетинга!

Что действительно выделяется для меня, так это то, что люди часто видят AI просто как инструмент, а не как общий план. Многие лидеры ошибочно полагают, что AI может исправить проблемы, вызванные плохим принятием решений. Эта статья идеально объясняет, почему наличие хороших данных является абсолютно необходимым, если вы хотите, чтобы AI принес реальные результаты.

Джонатан Рид похвалил обновленный акцент на качество данных, объяснив, что целенаправленная работа его команды в этой области привела к значительному улучшению конверсий и существенному снижению затрат.

Что это значит для ваших кампаний?

Этот сдвиг станет заметен довольно быстро, как только вы посмотрите, как на самом деле настроены ваши кампании.

Многие компании настраивают отслеживание конверсий, а затем не обновляют его. Однако, если данные, используемые вашими рекламными кампаниями, неточно отражают то, что люди *на самом деле* ищут, это затрудняет оптимизацию ставок системой и получение хороших результатов.

Это часто становится заметно из-за непредсказуемой производительности и трудностей с расширением вашей системы. Даже незначительные корректировки могут привести к серьезным, нестабильным изменениям.

Эти проблемы не вызваны одной настройкой или изменением. Обычно они возникают, потому что система учится на обрабатываемой ей информации.

Именно поэтому это стремление к Силе Данных имеет такое большое значение.

Это побуждает к тщательному анализу сигналов, направляющих оптимизацию, гарантируя их достоверность и реальную связь с положительными бизнес-результатами.

Иногда улучшение чего-либо означает более эффективную связь данных о ваших клиентах. В других случаях это требует исправления вашей системы тегирования или пересмотра того, как вы определяете конверсии.

По мере того, как Google всё больше сосредотачивается на этом подходе, пользователи, которые активно управляют своими данными, вероятно, получат лучший опыт, чем те, кто этого не делает.

Смотрите также

2026-04-10 14:42

Google отвечает, передают ли исходящие ссылки «плохие сигналы».

Джон Мюллер из Google недавно рассказал о том, как Google обрабатывает ссылки, ведущие *вдали* от сайта, который был наказан за проблемы со ссылками. Его ответ указывает на то, что процесс может быть не таким простым, как многие думают.

Кто-то спросил в Bluesky, может ли веб-сайт с ‘link penalty’ навредить ценности ссылок, которые он указывает на другие сайты. Вопрос немного неясен, потому что ‘link penalty’ может относиться к нескольким различным проблемам.

  • Покупал ли сайт некачественные входящие ссылки или создавал их самостоятельно?
  • Продавал ли сайт ссылки?
  • Участвовал ли сайт в какой-либо схеме наращивания ссылочной массы?

Даже несмотря на то, что вопрос не очень конкретный, он поднимает обоснованный момент: могут ли ссылки с веб-сайта, который опустился в поисковой выдаче, негативно повлиять на веб-сайты, на которые он ссылается?

Привет, Джон, просто гипотетический вопрос: если сайт был наказан Google, теряют ли ссылки с этого сайта свою ценность? Или эти ссылки все еще могут негативно влиять на сайты, на которые они указывают – по сути, может ли наказанный сайт передавать эти негативные сигналы другим веб-сайтам?

Я ранее делился некоторыми техниками, связанными со ссылками, и в мире SEO часто случается, что другие адаптируют эти идеи, не упоминая меня. Это часто приводит к игре в испорченный телефон, где исходная концепция искажается при повторной публикации и перефразировке, в конечном итоге приводя к неточным или странным интерпретациям.

Poor Signals AKA Link Cooties

Если вам интересно узнать много о том, как работают ссылки в поиске, у меня есть подробная статья под названием What Is Google’s Penguin Algorithm. В ней рассматриваются научные работы, о которых я был первым, кто публично написал. Я рекомендую её прочитать, но будьте готовы – это глубокое изучение темы.

Существует алгоритм, который работает, начиная с группы надёжных веб-сайтов. Чем дальше веб-сайт находится от этой исходной группы, тем выше вероятность того, что он будет считаться спамом. Это основано на так называемом ‘ранжировании по расстоянию ссылок’, которое по сути ранжирует ссылки на основе их связи с этими доверенными сайтами. Я был первым, кто написал об этом патенте, и с тех пор другие SEO-эксперты освещали ту же тему, часто перефразируя мои первоначальные идеи, не упоминая меня. Я знаю, что они скопировали мою работу, потому что они используют термин ‘ранжирование по расстоянию ссылок’ – фразу, которую на самом деле придумал *я*. Забавно, потому что этой конкретной фразы даже нет в оригинальном патенте!

Я также написал ключевую статью, объясняющую Граф ссылок Google и его роль в ранжировании веб-страниц. Я стремлюсь делать свои тексты понятными и доступными, и всегда предоставляю ссылки на исследовательские работы и патенты, подтверждающие мои объяснения, чтобы вы могли самостоятельно изучить источники.

Эти исследовательские работы и патенты изучают использование связей между веб-сайтами для понимания того, о чём сайт и связан ли он с ненадёжной или манипулятивной практикой – например, с некачественным контентом или искусственным наращиванием ссылок. По сути, они рассматривают ‘окружение’ ссылок сайта для оценки его качества.

Статьи, обсуждающие графы ссылок и ранжирование по расстоянию ссылок, затрагивают идею о том, что исходящие ссылки могут негативно повлиять на рейтинг сайта. Однако, эти алгоритмы на самом деле не наказывают сайты за их исходящие ссылки. Вместо этого, они работают по принципу, что высококачественные веб-сайты склонны ссылаться на другие высококачественные веб-сайты, в то время как спам-сайты обычно ссылаются на подобные сайты. Нет никаких доказательств того, что сайту может быть нанесен вред просто путем ссылки на другой сайт.

Похоже, изначально один SEO-специалист скопировал мою статью, внес несколько изменений, а затем десятки других сделали то же самое. Это в конечном итоге привело к обсуждению того, может ли ссылка на сайт с проблемами негативно повлиять на ваш собственный сайт – по сути, могут ли плохие ссылки ‘загрязниться’ другими сайтами. Именно поэтому кто-то задал вопрос Джону Мюллеру из Google о том, могут ли сайты передавать негальные сигналы через свои исходящие ссылки.

Google может игнорировать ссылки с проблемных сайтов.

Джон Мюллер из Google признал, что он не совсем уверен, что его спрашивают, но он уточнил, что Google обычно игнорирует ссылки с некачественными веб-сайтами. Это означает, что сайт не пострадает негативно от ссылки на или получения ссылок с некачественных сайтов – штраф не передается.

Я не знаком с термином ‘link penalty’. Однако, в общем, если наши системы обнаруживают, что веб-сайт выходит на внешние ссылки способом, который не является полезным или нарушает наши правила, мы можем игнорировать все ссылки с этого сайта. В некоторых случаях мы просто не считаем целесообразным оценивать ссылки с определенных веб-сайтов.

По словам Мюллера, Google не рассматривает автоматически ссылки с некачественными веб-сайтами как вредоносные. Вместо этого, Google может просто полностью игнорировать эти ссылки. Это означает, что они не помогают и не вредят рейтингу сайта – они, по сути, игнорируются.

Тот факт, что ссылки не используются для *распространения* спама, не означает, что они не используются для *обнаружения* спам-сайтов. Они помогают идентифицировать плохие сайты, но сама ‘спамность’ не распространяется через ссылки.

Игнорирование ссылок — это не то же самое, что передача негативных сигналов.

Важно понимать, почему мы игнорируем ссылки, поскольку это помогает нам сохранить ясность двух связанных, но отдельных понятий.

  • Один из аспектов заключается в том, что ссылка может потерять ценность или быть обесценена.
  • Другое заключается в том, что ссылка может активно передавать негальные сигналы.

Судя по тому, что я видел как вебмастер на протяжении многих лет, точка зрения Мюллера имеет большой смысл. Кажется, Google просто вообще не учитывает низкокачественные ссылки. Они не помогают вашему сайту, но, к счастью, и не *вредят* ему – их просто полностью игнорируют. Как будто их там и нет.

Это связано с идеей, которую я впервые исследовал, называемой Reduced Link Graph. По сути, граф ссылок — это визуальное представление сети, показывающее, как страницы соединяются друг с другом через ссылки. Когда вы удаляете нерелевантные или некачественные ссылки из этой карты, сайты, считающиеся спамом, естественным образом исчезают. Что остаётся, так это Reduced Link Graph.

Мюллер объяснил, что они не рассматривали определенные ссылки по двум причинам: полезны ли они на самом деле и соответствуют ли эти ссылки их рекомендациям. Понятие «полезности» немного неясно, но в целом имеет смысл.

Выводы:

  • Ссылки с проблемных сайтов низкого качества могут быть проигнорированы.
  • Ссылки не передают «плохие сигналы».
  • Распространение негативных сигналов крайне маловероятно.
  • Системы Google, похоже, отдают приоритет полезности и соответствию политике при оценке ссылок.
  • Если вы напишете статью, основанную на одной из моих, пожалуйста, сделайте ссылку на неё. 🙂

Смотрите также

2026-04-10 14:10

Обновление ядра Google за март оставило 4 неудачника на каждого победителя в Германии.

Анализ немецких поисковых результатов, проведенный SISTRIX, показал, что после основного обновления Google в марте большее количество веб-сайтов зафиксировало падение в рейтингах, чем улучшение.

Наш анализ более 1300 доменов показал, что у 134 из них наблюдалось снижение поисковой видимости, в то время как у 32 — улучшение. SISTRIX выявил эти изменения, изучая домены со значительными изменениями видимости за последний год, используя ежедневные данные за последние 30 дней и визуально подтверждая каждую тенденцию.

Обновление началось 27 марта и завершилось 8 апреля, потребовав 12 дней для завершения. Это было первое крупное обновление Google к её основной системе ранжирования в 2026 году, и оно последовало за завершением спам-обновления марта 2026 года всего через два дня.

Данные SISTRIX охватывают конкретно немецкий поисковый рынок. Результаты на других рынках могут отличаться.

Что показывают данные

Онлайн-магазины понесли самые значительные потери, из 134 компаний 39 обанкротились. Эти потери затронули различные сферы бизнеса, включая моду (Cecil.de, снижение на 30%), электронику (Media-Dealer.de, снижение на 37%), садоводство (123Zimmerpflanzen.de, снижение на 27%) и предприятия, поставляющие другие компании. Даже известные немецкие бренды, такие как Notebooksbilliger.de и Expert.de, столкнулись со снижением, каждый из них упал примерно на 11%.

Несколько веб-сайтов для изучения языков испытали заметное падение видимости. Наибольшее снижение наблюдалось у verbformen.de (снижение на 30%) и bab.la (снижение на 22%). Другие сайты, включая korrekturen.de, studysmarter.de, linguee.de, openthesaurus.de и reverso.net, также зафиксировали снижение в диапазоне от 7% до 15%. Эти ресурсы обычно предоставляют инструменты для изучающих языки, такие как спряжение глаголов, переводы, синонимы и учебные пособия.

Согласно SISTRIX, веб-сайты с рецептами и контентом о еде пострадали от Featured Snippets Google и, в последнее время, от AI Overviews. Обновление в марте особенно затронуло несколько сайтов: kuechengoetter.de зафиксировал снижение трафика на 29%, schlemmer-atlas.de упал на 25%, а eatsmarter.de потерял 18%. Однако chefkoch.de, самый популярный сайт с рецептами в Германии, сохранил свой уровень трафика.

Gutefrage.net, немецкий сайт вопросов и ответов, похожий на Quora, столкнулся со значительным падением своей видимости в поисковой выдаче, потеряв около 24%. Видимость сайта снижается с середины 2025 года после достижения пика в 127. До недавних изменений его видимость составляла около 62, но сейчас она снизилась до 47. Аналогично, x.com также столкнулся с падением видимости на 25% в немецких результатах поиска.

Кто получил?

32 победителя в основном состояли из официальных веб-сайтов и известных брендов.

Audible.de показал наибольший рост видимости, взлетев на 172% с Индекса видимости примерно в 3 до более чем 8. Другие сайты, испытавшие прирост, включают ratiopharm.de (увеличение на 12%), commerzbank.de (увеличение на 11%) и правительственные веб-сайты, такие как hessen.de и arbeitsagentur.de (увеличение на 5-8%).

Трафик на веб-сайты четырёх крупных немецких аэропортов значительно увеличился. Аэропорт Штутгарта показал наибольший скачок — 22%, за ним следуют Кельн-Бонн (18%), Гамбург (17%) и Мюнхен (8%). По данным SISTRIX, этот устойчивый рост по нескольким аэропортам указывает на более широкую тенденцию в поисковой выдаче, а не просто на улучшения отдельных веб-сайтов.

Как цифровой маркетолог, я внимательно слежу за изменениями в поисковой среде, и недавние успехи ChatGPT и Bing в Германии интересны. Мы увидели увеличение видимости chatgpt.com на 32% и скачок bing.com на 19%. Однако важно отметить, что они начинали с очень низкой точки – их Visibility Index был ниже 5. SISTRIX предполагает, что это не обязательно связано с тем, что Google отдает предпочтение этим платформам, а скорее с тем, что больше людей активно ищут эти бренды по названию, что увеличивает их видимость.

Почему это важно

Эти немецкие данные сосредоточены на одном рынке, и наш метод включает только веб-сайты со значительным присутствием в сети – те, которые набирают более 1 балла по нашему Индексу Видимости. Это означает, что более мелкие веб-сайты не включены, но общие тенденции все еще полезно наблюдать.

Как человек, который годами следит за трафиком веб-сайтов, я недавно заметил кое-что действительно странное. Семь веб-сайтов, которые в основном делают одно и то же – помогают с языком и письмом – все одновременно заметили падение своих позиций в Google. Это заставляет меня задуматься: начинает ли Google рассматривать такие сайты как менее ценные? Или люди теперь получают то, что им нужно, от инструментов на основе искусственного интеллекта, поэтому они просто больше не ищут эти услуги? Сложно разобраться, но определенно кажется, что что-то меняется.

Если вы проверяете, как работает ваш веб-сайт после недавнего обновления Google в марте, Google рекомендует подождать целую неделю после завершения обновления, прежде чем делать какие-либо выводы. При сравнении посмотрите на производительность вашего сайта *до* 27 марта и сравните ее с производительностью *после* 8 апреля.

Заглядывая в будущее

В SISTRIX в работе новые исследования рынка. В настоящее время они отслеживают недавнее основное обновление в Великобритании и США, показывая, какие сайты набирают и теряют видимость, но пока не опубликовали полные результаты для этих стран.

Google не объяснил, что именно изменил основной обновление марта 2026 года. Как и все крупные обновления, некоторые веб-страницы могут улучшить свои позиции в поисковой выдаче, в то время как другие могут опуститься, поскольку Google переоценивает качество контента в сети.

Смотрите также

2026-04-10 08:40