Google: Алгоритмы поиска, обнаружение спама и политики не меняются фундаментально с появлением поиска на базе ИИ.

По словам Джона Мюллера из Google, даже с появлением AI Search и связанных с ним обновлений, базовая технология поиска Google – включая то, как она борется со спамом и применяет свои правила – в значительной степени остается прежней. Основные системы фундаментально не изменились.

Послушайте, были некоторые обновления, как это всегда бывает. Вещи не происходят в вакууме – поиск постоянно меняется, даже *без* учета ИИ. Кроме того, веб сам по себе является естественно развивающейся средой, поэтому вам следует ожидать изменений.

Это исходит из вопроса, который задала Лили Рей на Bluesky — она написала:

Можете ли вы прокомментировать, изменилось ли что-либо в отношении обработки Google веб-спама, Полезного Контента и т.д. с развитием поиска на основе ИИ?

Работает ли Google над обновлениями своего поискового алгоритма и правил против манипулирования результатами поиска? И будут ли они продолжать создавать новые способы наказания веб-сайтов, нарушающих эти правила?

Мне интересно, заметили ли вы какие-либо обновления или изменения в том, как отображаются результаты поиска, учитывая, что поисковые системы все чаще используют ИИ и автоматизированные режимы.

Джон ответил:

Я не думаю, что эти вещи фундаментально меняются. Поиск имеет долгую историю, с большим опытом и экспертизой. Конечно, есть *некоторое* изменение — ни одна из этих вещей не существует в изоляции, поиск развивается вне AI, и веб — это динамичное место.

Вот скриншот этих постов:

Смотрите также

2026-02-03 17:14

Bing Multi-Turn Search разворачивается по всему миру.

Bing Search запустил новую функцию под названием multi-turn search по всему миру. Это позволяет вам продолжать уточнять свой поиск после появления первоначальных результатов. Мы впервые увидели, как Microsoft тестирует это в июне – это появлялось как плавающее окно поиска внизу страницы во время прокрутки. Теперь она доступна для использования всем.

Жорди Рибас, руководитель отдела поиска Microsoft, объявил в X (ранее Twitter), что многооборотный поиск Bing, который был запущен в США в прошлом году, теперь доступен во всем мире. Интересное название функции – ‘multi-turn search’.

Вот скриншот того, как это выглядит:

По словам Жорди Рибаса, пользователям Bing не придется прокручивать страницу вверх, чтобы задать новый вопрос, и система будет помнить предыдущие части разговора, когда это имеет смысл.

Он также отметил, что онлайн-данные Microsoft показывают, что люди используют их сервисы чаще и в течение более длительных периодов времени, что говорит о том, что им нравится этот новый подход. Это логично.

Хорди также опубликовал это видео:

Вы можете найти это, прокрутив страницу результатов поиска до самого низа, как показано в видео ниже.

— Jordi Ribas (@JordiRib1) February 2, 2026

Смотрите также

2026-02-03 17:14

ChatGPT С Главными Новостями & Больше Визуальных Информационных Панелей

OpenAI делает ChatGPT более визуально привлекательным, добавляя функции, похожие на панели знаний Google и новостные сводки. Эти визуальные обновления появляются, когда вы спрашиваете о людях, местах, продуктах или концепциях.

OpenAI объявила, что ответы ChatGPT теперь стали более визуально привлекательными и простыми для чтения. Для распространенных вопросов вы можете увидеть быстрые визуальные элементы, такие как графики для обновлений команды, преобразования единиц измерения или простые вычисления.

Гленн Гейб вытащил несколько примеров этого:

Он продемонстрировал новую функцию, которую описал как похожую на панель знаний, и поделился ею на X сегодня.

И затем этот тип интерфейса «Top Stories» из ChatGPT:

Заставляет задуматься, откуда OpenAI берет эти новостные истории и индекс?

Как цифровой маркетолог, мне очень интересно наблюдать за тем, как OpenAI и Google всё больше конкурируют и отражают подходы друг друга со своими различными платформами и интерфейсами. Определенно, сейчас ощущается динамичный и быстро развивающийся ландшафт.

Смотрите также

2026-02-03 17:15

Главные задачи обхода Google в 2025 году.

В недавнем подкасте Гэри Ильи и Мартин Сплитт из Google обсудили распространенные проблемы, с которыми они сталкиваются при сканировании веб-сайтов. Они выделили такие проблемы, как сложные варианты фильтрации (граненая навигация), ненужные веб-адреса с дополнительными деталями (action и нерелевантные параметры) и проблемы с фильтрами на основе дат (параметры календаря) – по сути, все, что затрудняет Google эффективное исследование и индексацию веб-сайтов.

Вот внедрение подкаста:

https://www.youtube.com/watch?v=UC67EY4U744

Проблемы с тем, как поисковые боты исследуют веб-сайт, могут замедлить его работу. Если бот застревает в цикле, он может перегрузить сервер запросами. Как объяснил Гари Ильес, поисковым системам необходимо просканировать значительную часть веб-сайта, прежде чем они смогут определить, ценен он или нет.

Вот как Гэри Ильес представил сложности в процентах:

  • Faceted Navigation was 50%: Это происходит на веб-сайтах (часто электронной коммерции), которые позволяют пользователям фильтровать и сортировать элементы по различным измерениям, таким как цена, категория или производитель. Эти комбинации создают огромное количество уникальных URL-шаблонов. Googlebot может попытаться просканировать их все, чтобы определить их ценность, что потенциально может привести к сбою сервера или сделать сайт бесполезным для пользователей из-за высокой нагрузки.
  • Action Paramters was 25%: Это URL-параметры, которые запускают определенное действие, а не существенно меняют содержимое страницы. Распространенные примеры включают параметры, такие как ?add_to_cart=true или ?add_to_wishlist=true. Добавление этих параметров удваивает или утраивает URL-пространство (например, URL страницы продукта по сравнению с тем же URL с параметром ‘add to cart’), заставляя краулер тратить ресурсы на идентичный контент. Они часто внедряются плагинами CMS, такими как те, что для WordPress.
  • Irrelevant Parameters was 10%: Как UTM-параметры отслеживания или параметры, которые Googlebot обычно игнорирует или считает не относящимися к состоянию контента, такие как идентификаторы сеансов и UTM-параметры. Googlebot испытывает трудности с определением того, меняют ли эти случайные строки содержимое страницы. Он может агрессивно сканировать, чтобы проверить, являются ли параметры значимыми, особенно если используются стандартные соглашения об именах.
  • WordPress Plugins or Widgets was 5%: Где, возможно, эти виджеты добавляют своего рода отслеживание событий или другие вещи. Это было большой проблемой для Google из-за открытого исходного кода.
  • Other ‘Weird Stuff’ was 2%: Эта обобщающая категория включает редкие технические ошибки, такие как случайное двойное кодирование URL-адресов (например, процентное кодирование URL-адреса, который уже был закодирован). Краулер декодирует URL-адрес один раз, но остается со все еще закодированной строкой, что часто приводит к ошибкам или сломанным страницам, которые краулер пытается обработать в любом случае.

Это был интересный подкаст — вот расшифровка, если она вам нужна.

Источник изображения: Lizzi Sassman

Смотрите также

2026-02-03 17:16

Google: Не тратьте слишком много времени на анализ редиректов для SEO.

Джон Мюллер из Google не рекомендует чрезмерно анализировать каждый URL на вашем сайте в поисках проблем с редиректами или настройками политики безопасности контента (CSP). Он объясняет, что эти проблемы часто заметны просто при обычном просмотре сайта, и обнаружение их во время нормального использования обычно достаточно для целей SEO.

В основном, вы обычно можете заметить проблемы с неработающими перенаправлениями или неправильными настройками безопасности, просто посетив веб-страницы в вашем браузере – вам не нужны специальные или сложные SEO-инструменты, чтобы их найти.

Кто-то по имени John ответил на вопрос Reddit о том, занимает ли проверка цепочек перенаправлений в DevTools много времени, и его ответ был просто: ‘yes, it often does’.

John wrote:

Уже существует множество расширений для браузеров, которые это делают (например, Redirect Path от Ayima — одно из тех, что я часто вижу на скриншотах, и CSP сильно отличается от перенаправлений, поэтому я не понимаю связь). Я не припомню, чтобы когда-либо сталкивался с чем-то подобным, вызывающим проблемы с SEO, которые также не были бы видны обычным пользователям в их браузерах.

Я использую Redirect Path от Ayima, это удобное расширение для браузера.

Джон рассказывает, почему может быть интересно углубиться в тему:

Я не хочу вас отговаривать от глубокого погружения в мельчайшие технические детали, преследования кроличьих нор и последующего создания инструментов, чтобы облегчить себе задачу :-). Я тоже потратил дни и недели на анализ технических особенностей и головоломок, которые в итоге оказались неважными, но были ‘интересными’ (четверть была сделана из злости) и в некоторой степени познавательными. Вероятно, нездорово слишком зацикливаться на этих вещах, но я изучаю мелочи (которые никогда не будут иметь значения, я знаю).

Но в конечном итоге, это, вероятно, излишне, особенно для SEO — написал Джон:

Это в основном просто чтобы выразить своё восхищение вашим желанием разобраться во всех этих деталях, время от времени практиковаться в этом вполне разумно, но я бы предостерег от предположения, что вам нужно проводить такой уровень анализа для всех URL-адресов на веб-сайте, чтобы достичь оптимального SEO/EtcO. С веб-сайтами может случиться много вещей, которые могут тонко и невидимо пойти не так, но обычно плохие перенаправления или настройки CSP будут очень заметны людям, использующим браузеры.

Смотрите также

2026-02-03 17:16