Откройте для себя данные Core Update, советы по Sitemap и риски AI – SEO Pulse

Вот ваше еженедельное обновление SEO! На этой неделе мы рассматриваем, что говорят первоначальные данные о февральском основном обновлении для Google Discover, почему Google иногда может пропускать идеально хороший sitemap и как компании пытаются манипулировать памятью AI-ассистентов.

Купил акции на все деньги, а они упали? А Илон Маск снова написал твит? Знакомо. У нас тут клуб тех, кто пытается понять этот цирк и не сойти с ума.

Купить на падении (нет)

Вот что важно для вас и вашей работы.

Обнаружено основное обновление: Первичные данные показывают меньше издателей и больше тем.

NewzDash изучил, насколько легко контент из Discover появлялся в результатах поиска Google до и после крупного обновления в феврале. Они проанализировали данные от миллионов пользователей в США, чтобы увидеть влияние обновления.

Как эксперт по поиску, я анализировал влияние недавнего обновления. Мои исследования охватили 1000 лучших веб-сайтов и статей в США, Калифорнии и Нью-Йорке, изучая данные за неделю *до* обновления (25-31 января) и неделю *после* (8-14 февраля). Я обнаружил, что, хотя разнообразие категорий контента увеличилось во всех трех регионах, мы фактически столкнулись с небольшим *снижением* количества уникальных издателей, ранжирующихся в США – с 172 до 158 доменов – и в Калифорнии, где оно снизилось с 187 до 177.

Веб-сайты с локальными доменными именами Нью-Йорка появлялись примерно в пять раз чаще в новостной ленте Нью-Йорка по сравнению с лентой Калифорнии. После обновления контент Yahoo исчез из топ-100 самых популярных элементов, в то время как публикации из проверенных аккаунтов X.com увеличились с трёх до тринадцати в том же списке.

Почему это важно

Недавно Google обновил свой поисковый алгоритм, чтобы отдавать приоритет полезным, подробным статьям из надёжных источников, особенно тем, которые посвящены местным новостям и конкретным темам. Первоначальные данные от NewzDash показывают, что обновление успешно повышает рейтинг локального и тематического контента, хотя и сложно однозначно сказать, снижает ли оно количество кликбейтных заголовков, поскольку простого просмотра заголовков недостаточно, чтобы подтвердить уменьшение сенсационного контента.

Как человек, который разрабатывает веб-сайты уже много лет, я определенно заметил тенденцию, которая совпадает с тем, что мы увидели в основном обновлении в декабре. Кажется, специализированные сайты – те, которые действительно сосредоточены на конкретной нише – начинают превосходить большие, общие сайты. Что интересно, если у сайта есть сильная связь с определенной местной областью, он может показать *лучшие* результаты в этой области, но может увидеть падение своих позиций в других местах. Это похоже на то, что концентрация на своем дворе дает свои плоды, но вы теряете позиции везде, где только можно.

Что говорят люди

Когда Google обновил свои системы и опубликовал новые справочные документы для Discover, SEO-консультант Glenn Gabe из GSQi заметил новую точку, добавленную в руководство – то, что не упоминалось в предыдущей документации Discover. Он поделился своими выводами на X.

Документация Google Discover теперь делает акцент на создании хорошего пользовательского опыта на ваших веб-страницах. Это означает избежание таких вещей, как чрезмерная или навязчивая реклама, а также автоматическое воспроизведение видео или аудио.

В целом, отзывы были неоднозначными. Некоторые люди отмечают увеличение активности в своих новостных лентах, специфичных для штата, в то время как другие сообщили о значительном снижении трафика из ленты Discover.

Мюллер говорит, что Google может пропустить sitemaps без «нового и важного» контента.

Джон Мюллер из Google ответил на вопрос на Reddit о продолжающихся ошибках sitemap в Google Search Console. Владелец веб-сайта проверил журналы своего сервера и подтвердил, что Googlebot успешно получал доступ к sitemap (получая ответ ‘200 OK’), но Search Console продолжал сообщать, что не может получить файл, даже несмотря на то, что XML sitemap был валидным, а инструкции по индексации были верными.

По словам Мюллера, Google необходимо видеть свежий и ценный контент на вашем веб-сайте, чтобы тратить ресурсы на его индексацию. Просто наличие карты сайта недостаточно – Google будет использовать её только в том случае, если считает, что ваш сайт предлагает что-то новое и достойное внимания.

Почему это важно

Ошибки карты сайта в Search Console могут быть сложными для понимания. Они часто появляются, даже если ваш веб-сайт, кажется, работает правильно с технической стороны. Вы можете проверить код своей карты сайта, ответы сервера и правила о том, к каким страницам Google имеет доступ, но всё равно не найти проблему. Это происходит потому, что Google может посчитать, что ваши страницы не заслуживают индексации, даже если всё остальное выглядит нормально.

Роджер Монти, пишущий для Search Engine Journal, отметил, что Джон Мюллер из Google предложил общую идею, но учитывать, что удерживает посетителей на вашем сайте, — хороший способ выявить области для улучшения.

Что говорят люди

В мире SEO продолжается обсуждение о том, какой вес Google придает картам сайта (sitemaps). Некоторые считают, что Google в основном использует их для более крупных сайтов или новостных изданий, и обычно следует по ссылкам для более мелких. Другие отмечают, что Google не наказывает сайты только за наличие карт сайта, которые активно не используются.

Мюллер предложил свежий взгляд на то, как работает индексация, который ранее не был широко обсуждаем.

Microsoft обнаружила отравление памяти ИИ через кнопки «Суммировать».

Исследователи Microsoft обнаружили новую атаку под названием ‘Отравление рекомендаций ИИ’. Она работает, обманывая веб-сайты, заставляя их внедрять скрытые инструкции в кнопки, предлагающие AI-powered сводки. Эти инструкции затем могут манипулировать ответами ИИ.

После анализа ссылок на веб-сайты, обнаруженных в электронных письмах за последние два месяца, исследователи Microsoft обнаружили 50 различных попыток манипулирования системами искусственного интеллекта. Эти попытки, исходящие от 31 компании из 14 различных отраслей, были направлены на популярные инструменты ИИ, такие как Copilot, ChatGPT, Claude, Gemini, Perplexity и Grok. Microsoft обнаружила, что успех этих попыток зависел от конкретной AI-платформы и менялся со временем.

Почему это важно

Вместо того, чтобы сосредотачиваться на более высоких позициях в результатах поиска, некоторые компании теперь пытаются повлиять на рекомендации AI-ассистентов, напрямую добавляя инструкции в долговременную память AI. Microsoft обнаружила, что эти инструкции были созданы с использованием общедоступных инструментов, предназначенных для помощи предприятиям в установлении присутствия в памяти AI, и в одном случае компания не просто попросила AI запомнить их – они встроили полные маркетинговые материалы.

Рекомендации на основе искусственного интеллекта сейчас являются основным направлением для компаний, которые разрабатывают инструменты, чтобы попытаться улучшить свои позиции в этих системах. То, как платформы будут справляться с этими попытками манипулирования, будет иметь решающее значение для поддержания доверия пользователей к получаемым рекомендациям.

Что говорят люди

Исследование привлекло значительное внимание как экспертов по безопасности, так и специалистов в области искусственного интеллекта. Танмай Ганачарья, вице-президент Microsoft по исследованиям в области безопасности, объяснил, как это работает, в интервью с Dark Reading.

Нажатие на кнопку перенаправит пользователя в конкретную область ИИ, связанную с выбранным ИИ-помощником.

Ганачарья также сообщил BankInfoSecurity, что не все платформы одинаково уязвимы:

Из протестированных нами AI-платформ только Copilot, ChatGPT и Perplexity могут активно помнить прошлые взаимодействия. Claude и Grok не сохраняют память, что защищает их от этого конкретного типа проблем с безопасностью.

Некоторые эксперты по маркетингу задаются вопросом, является ли этот подход просто способом быстрого расширения бизнеса, а специалисты по безопасности выразили обеспокоенность по поводу его этических последствий и потенциального ущерба доверию клиентов.

Тема Недели: Сигналы, определяющие видимость, становятся всё сложнее различить.

Все истории на этой неделе сосредоточены на том, что происходит *за пределами* типичных данных, отслеживаемых SEO-специалистами – на скрытых факторах, влияющих на результаты.

Лента Discover от Google теперь выделяет меньше источников по каждой теме, и вы увидите это изменение непосредственно в самой ленте, а не в данных вашей Search Console. Джон Мюллер из Google объяснил, что ошибки при попытке Google получить доступ к вашей карте сайта могут означать, что он уже решил, индексировать ваш контент или нет. Между тем, исследования Microsoft показывают, что некоторые компании пытаются манипулировать тем, как генерируются рекомендации, на фундаментальном уровне.

Становится очевидным, что решения о том, что мы видим, принимаются в областях, на которых мы, по сути, не сосредотачивались.

Для более глубокого понимания этих тем ознакомьтесь с этими недавними материалами.

Смотрите также

2026-02-27 16:11