
Этот выпуск SEO Pulse приносит вам обновления об отслеживании того, насколько хорошо ранжируется контент, созданный ИИ, потенциальную проблему, когда ‘призрачные страницы’ могут навредить присутствию вашего сайта в поисковой выдаче, и новую информацию о том, как Googlebot может обрабатывать файлы при сканировании вашего сайта.
Купил акции на все деньги, а они упали? А Илон Маск снова написал твит? Знакомо. У нас тут клуб тех, кто пытается понять этот цирк и не сойти с ума.
Купить на падении (нет)Вот что имеет значение для вас и вашей работы.
Инструменты веб-мастера Bing добавляют панель управления AI Citation.
Microsoft запустила новую панель управления AI Performance в Bing Webmaster Tools. Эта панель управления позволяет владельцам веб-сайтов видеть, как часто их контент используется в Microsoft Copilot и других результатах поиска на основе искусственного интеллекта. В настоящее время она доступна для публичного тестирования.
Эта панель управления предоставляет важную информацию о том, как используется ваш контент. Она показывает общее количество цитирований, среднее количество страниц, цитируемых каждый день, и подробную статистику цитирования для каждой страницы. Она также отображает ‘grounding queries’, то есть конкретные фразы, которые ИИ использовал для поиска вашего контента при создании ответов.
Почему это важно
Bing теперь показывает вам, как часто его ИИ ссылается на ваш веб-сайт на специальной панели управления. В то время как Google Search Console отслеживает, как функции ИИ, такие как Overviews, используют ваш контент в общих отчётах о производительности, он не предоставляет конкретной разбивки или подсчёта цитирований, как это делает Bing. Кроме того, Google’s AI Overviews в настоящее время отображает все связанные страницы как один результат, что затрудняет понимание того, как отдельные страницы работают в ответах на основе ИИ.
Инструменты отчетности Bing показывают не только, где упоминается ваш контент, но и как часто и какой конкретно текст привел к этим упоминаниям. Однако в настоящее время они не сообщают, действительно ли эти упоминания приводят людей на ваш веб-сайт — им не хватает данных о том, кликают ли люди по этим ссылкам.
Теперь вы можете видеть, какие страницы использует ИИ для генерации ответов и понимать, как он находит информацию. Однако, чтобы по-настоящему понять, как это влияет на ваш бизнес, вам необходимо объединить эту информацию со своими собственными данными и анализом.
Что говорят SEO-специалисты
Уилл Рейнольдс, основатель Seer Interactive, поделился своим восторгом по поводу новой функции в X (ранее Twitter), отметив ценные сведения, предоставляемые данными grounding queries.
Отличные новости! Bing теперь предоставляет «основополагающие запросы» в Bing Webmaster Tools. Я только что проверил это и сейчас работаю над тем, чтобы понять, что означают эти данные и как владельцам веб-сайтов лучше всего их использовать.
Корай Тугберк ГЮБЮР, основатель Holistic SEO & Digital, поделился прямым сравнением с инструментами Google в X (ранее Twitter).
Инструменты вебмастера Bing последовательно были лучше и проще в использовании, чем Google Search Console, и Microsoft вновь продемонстрировала свою приверженность открытости и честности с пользователями.
Фабрис Канель, менеджер по продуктам в Microsoft Bing, описал запуск в X (ранее Twitter) как способ объединить классические методы поисковой оптимизации с теми, которые работают на основе искусственного интеллекта.
Издатели теперь могут понять, как их контент отображается при использовании ИИ. Рассматривайте это как ‘GEO’ – понимание *где* ваш контент просматривается – в сочетании с ‘SEO’ – оптимизацией для поисковых систем. Используйте эти реальные данные для улучшения вашей контент-стратегии.
Люди в социальных сетях в основном были разочарованы тем, что эти полезные данные поступают из Bing, а не от Google, поскольку многие уже давно запрашивали подобную информацию. Есть надежда, что Google и OpenAI скоро выпустят аналогичные отчеты.
Скрытая HTTP-главная страница может сломать имя вашего сайта в Google.
Недавно Джон Мюллер из Google объяснил сложную проблему в Bluesky, где старая, незащищенная (HTTP) версия домашней страницы вызывала отображение неправильных названий сайтов и фавиконок в результатах поиска Google. Эта проблема трудно обнаружима, поскольку Chrome часто автоматически переключает HTTP-запросы на более безопасный HTTPS, поэтому вы бы не заметили ошибку, просто просматривая сайт.
Веб-сайт был настроен на использование защищённого соединения (HTTPS), но старая, незашифрованная версия главной страницы всё ещё была доступна. В то время как веб-браузеры, такие как Chrome, автоматически перенаправляли посетителей на защищённую версию, веб-краулер Google (Googlebot) не делал этого автоматически. Это означало, что Googlebot просматривал и индексировал незащищённую версию страницы вместо защищённой.
Почему это важно
Вы не обнаружите эту проблему при обычной проверке веб-сайта, так как она невидима в вашем браузере. Если название или значок вашего веб-сайта в результатах поиска отображается неправильно, но всё выглядит нормально на вашей защищённой (HTTPS) главной странице, стоит изучить незащищённую (HTTP) версию вашего веб-сайта.
Руководство Google относительно названий веб-сайтов рассматривает вопрос о наличии дублирующихся домашних страниц – например, наличие как обычной (HTTP), так и защищенной (HTTPS) версии одной и той же страницы. Google рекомендует использовать одинаковую разметку данных на обеих версиях. Недавний пример от Джона Мюллера из Google иллюстрирует, что может произойти, если контент на HTTP-версии вашей домашней страницы отличается от предполагаемой HTTPS-домашней страницы.
Что говорят люди
Мюллер назвал ситуацию ‘странной’, объяснив, что основная проблема незаметна, когда вы просто пользуетесь интернетом в обычном режиме.
Chrome автоматически переключает веб-сайты с менее безопасного HTTP на более безопасный HTTPS, поэтому вы обычно даже не заметите версию HTTP. Однако веб-краулер Google (Googlebot) *действительно* видит версию HTTP и использует эту информацию при выборе имени и значка (favicon) веб-сайта.
Эта ситуация показывает, что то, что вы видите в веб-браузере, не всегда то, что видят поисковые роботы. Такие функции, как автоматические обновления Chrome, режимы чтения и способ загрузки веб-сайтами контента с помощью JavaScript, могут вызывать различия. При устранении неполадок с именем или значком вашего сайта лучше всего проверять необработанные данные, отправляемые с вашего сервера, а не полагаться на то, как браузер отображает страницу.
Новые данные показывают, что большинство страниц хорошо укладываются в лимит обхода Googlebot.
Недавние исследования показывают, что большинство веб-страниц значительно меньше лимита в 2 МБ, который использует Googlebot при доступе к ним. Анализ, проведенный Роджером Монти в Search Engine Journal с использованием данных из HTTP Archive, предоставляет реальный взгляд на то, как размер страницы влияет на сканирование.
Недавние данные из HTTP Archive показывают, что размер большинства веб-страниц не превышает 2 МБ. Google также недавно подтвердил, что его веб-краулер, Googlebot, может эффективно обрабатывать файлы размером до 2 МБ, с более высоким лимитом в 64 МБ, предназначенным специально для PDF-документов.
Почему это важно
В последнее время SEO-специалисты обсуждают ‘ограничения сканирования’ – количество страниц, которые Googlebot будет сканировать на веб-сайте. Эта дискуссия получила развитие после того, как Google недавно обновил свою документацию о работе Googlebot.
Раньше было неясно, вызовет ли ограничение в 2 МБ проблемы для веб-сайтов. Теперь, располагая новыми данными, мы знаем, что для большинства сайтов ответ — нет. Типичные веб-страницы, даже содержащие много контента, обычно даже не приближаются к этому лимиту.
Ограничение может стать заметным на веб-страницах с чрезмерно сложным кодом, скриптами непосредственно в HTML или большим количеством встроенных данных, что может привести к необычно большому размеру страницы.
Как человек, который давно управляет веб-сайтами, я заметил чёткую тенденцию: Google действительно раскрывает информацию о том, как работают его веб-краулеры. Они создали специальный сайт, посвященный документации по сканированию, значительно прояснили, какие правила применяются к различным ботам, и теперь даже делятся реальными данными, чтобы доказать эти ограничения. Честно говоря, это огромная помощь, потому что это дает нам гораздо лучшее понимание того, что Googlebot может обрабатывать при посещении наших сайтов.
Что говорят профессионалы технического SEO
Дейв Смарт, технический SEO-консультант из Tame the Bots и высоко оцененный эксперт Google Search Central, недавно поделился некоторыми наблюдениями в LinkedIn:
Smart затем улучшил свой инструмент ‘Tame the Bots’, чтобы имитировать обрыв соединения и посмотреть, как это будет работать. Он поделился предупреждением в Bluesky о потенциальных проблемах, которые это может вызвать.
Я добавил функцию для ограничения текстовых файлов до 2 МБ, хотя маловероятно, что это станет проблемой для большинства веб-сайтов. Я сделал это, чтобы протестировать, как система обрабатывает более крупные файлы.
Джон Мюллер из Google одобрил этот инструмент на Bluesky, написав:
«Если вам интересно ограничение в 2 МБ для получения HTML Googlebot, вот способ проверить это.»
Мюллер также поделился данными Web Almanac на Reddit, чтобы прояснить предел контекста:
Типичный размер мобильной веб-страницы составляет около 33kb, и 90% страниц весят менее 151kb HTML.
После анализа данных из HTTP Archive, Роджер Монтти из Search Engine Journal пришел к аналогичному выводу: большинство веб-сайтов хорошо укладываются в рекомендуемый предел размера HTML. Он предполагает, что владельцам веб-сайтов можно перестать беспокоиться о размере HTML как о факторе, влияющем на их поисковую оптимизацию (SEO).
Тема недели: Разрыв в диагностике
Истории, которые мы освещали на этой неделе, все подчеркивают упущенные детали или проблемы, которые ранее рассматривались неверно.
Новый инструмент цитирования AI от Bing помогает отслеживать, когда AI-системы используют контент с веб-сайтов, что было сложно отслеживать до сих пор. Недавние исследования Google о скрытых веб-страницах показывают, что стандартные проверки веб-сайтов могут пропускать контент, который Chrome намеренно скрывает. Наконец, данные о том, как часто Googlebot сканирует веб-сайты, проясняют вопросы, которые не могли быть полностью объяснены в собственной документации Google.
Эти проблемы не новы – проблемы с AI цитированием, запутанными названиями веб-сайтов и ограничениями сканирования существовали некоторое время. Что изменилось сейчас, так это то, что у нас наконец-то появились способы их реально *увидеть* и измерить. На этой неделе были выпущены инструменты – такие как панели управления, простые тесты и отчеты о данных – которые предоставляют нам конкретную информацию о каждой из этих проблем.
Становится всё проще понять, как поисковые системы оценивают ваш контент, благодаря более детальным инструментам и данным. Однако, выяснить *где* найти эту информацию может быть непросто.
Смотрите также
- Акции IRKT. Яковлев: прогноз акций.
- YouTube запускает платные курсы для большего количества каналов
- Google удаляет хлебные крошки из фрагментов результатов мобильного поиска
- Обзоры Google AI теперь предоставляют помощь в программировании
- Анализ динамики цен на криптовалюту LSETH: прогнозы LSETH
- Акции KZIZ. Красногорский завод им. С.А. Зверева: прогноз акций.
- Акции OZON. Ozon Holdings PLC: прогноз акций.
- Акции RBCM. РБК: прогноз акций.
- Акции ELMT. Элемент: прогноз акций.
- Запрос Google, выделенный жирным шрифтом в поле поиска, когда курсор находится вне окна поиска
2026-02-13 17:11