Google приуменьшает значение GEO – но давайте поговорим об отвратительных AI SERP.

Дэнни Салливан и Джон Мюллер из Google недавно обратились к SEO-специалистам и издателям в своем подкасте ‘Search Off The Record’, уточнив, как контент ранжируется в поисковых запросах, основанных на больших языковых моделях. Они конкретно оспорили популярный совет разбивать контент на более мелкие ‘chunks’. Однако некоторые считают, что Google следует сосредоточиться на других проблемах в данный момент.

Купил акции на все деньги, а они упали? А Илон Маск снова написал твит? Знакомо. У нас тут клуб тех, кто пытается понять этот цирк и не сойти с ума.

Купить на падении (нет)

SEO и следующее поколение поиска

В прошлом Google определял позиции в поисковой выдаче в основном путём сопоставления ключевых слов и использования PageRank, который учитывал текст, использованный в ссылках. Запуск Knowledge Graph в 2012 году ознаменовал переход к ранжированию результатов на основе реальных объектов и концепций – по сути, смещение акцента с простого сопоставления слов к пониманию того, что эти слова представляют.

То, что мы видим сейчас, это то, что Google описал ещё в 2012 году как будущее поиска – система, которая использует объединенные знания интернета, чтобы понимать информацию так, как это сделал бы человек.

Правда, ядро SEO – сам поиск Google – не изменилось. Однако результаты поиска *изменились*. Теперь Google предоставляет подробные ответы, которые выходят за рамки исходного вопроса, часто отвечая на три или более связанных последующих вопроса.

Традиционное SEO было сосредоточено на ранжировании по конкретным ключевым словам. Однако, с появлением поисковых систем на базе ИИ, этот подход меняется. Вместо того, чтобы одно ключевое слово приводило к одному результату, ИИ расширяет запросы, что означает, что SEO необходимо адаптироваться к более широкому спектру связанных тем и поисковых намерений.

Дэнни Салливан и Джон Мюллер из Google недавно поделились своими советами о том, что специалисты по SEO должны приоритизировать. Но действительно ли их рекомендации полезны?

Как писать длинные ответы

Теперь, когда Google показывает длинные, подробные ответы в результатах поиска, стоит ли по-прежнему писать контент в коротких, легко усваиваемых разделах? И как этот стиль представления влияет на читателей – предпочтут ли они его, или он сделает их менее склонными оставаться на странице?

Некоторые SEO-эксперты предлагают разделять веб-страницы на более мелкие «фрагменты», поскольку они считают, что ИИ обрабатывает информацию именно так. Однако это не обязательно – хорошо структурированные страницы уже используют заголовки и списки, чтобы естественным образом разбивать контент на логические разделы. Правильно отформатированная страница должна быть понятна как людям, так и ИИ, поэтому искусственное дальнейшее её разделение вряд ли необходимо.

Понятно, что Дэнни Салливан из Google советует веб-сайтам и создателям контента не дробить свои статьи и страницы без необходимости.

Распространенный совет при работе с языковыми моделями ИИ — разбивать ваш контент на более мелкие, управляемые части. Эти модели лучше всего работают с информацией, представленной в коротких, легко усваиваемых фрагментах.

Хотим быть предельно ясными: пожалуйста, не создавайте контент, специально предназначенный для манипулирования результатами поиска. Наши инженеры и мы согласны с тем, что мы не намерены, чтобы кому-либо приходилось это делать. Мы всегда сосредотачивались на предоставлении полезных результатов, и это не изменилось. Вам не следует чувствовать, что вам нужно создавать разные версии вашего контента — одну для моделей ИИ и другую для общего веб.

Дэнни недавно поговорил с инженерами Google о ‘chunking’ контента. Они посоветовали не делать этого, предлагая вместо этого писать контент для человеческих читателей. Их системы разработаны для обработки информации аналогично тому, как это делают люди, поэтому приоритетом является удобочитаемость.

Избегает обсуждения поисковых переходов.

Он продолжает уклоняться от того, что я считаю ключевым вопросом в отношении AI-поиска: как он расширяет поисковые запросы и влияет на трафик веб-сайтов. Это расширение происходит потому, что Google показывает одни и те же несколько страниц в ответ на множество различных поисков. Однако, веб-сайты, которые Google *is* ранжирует, показывают плохие результаты, что усугубляет проблему.

Сосредоточьтесь на общей картине.

Дэнни Салливан затем указывает на то, что оптимизация для поисковых систем имеет недостаток: по мере того, как эти системы становятся лучше, эти оптимизации в конечном итоге становятся менее эффективными.

Со временем поисковые системы, вероятно, станут лучше распознавать контент, действительно написанный для людей. Тактики, используемые для обмана или взлома этих систем – которые, возможно, даже не были эффективны изначально – вероятно, перестанут работать в ближайшем будущем.

Послушайте, в конце концов, вы должны делать то, что считаете правильным. Но после многих лет работы вебмастером и в SEO я заметил кое-что: именно не мелкие тактические детали действительно имеют значение в долгосрочной перспективе. Это приверженность основным принципам и построение прочного фундамента. Именно это последовательно приносит результаты, и именно это я видел, как успешные сайты переживают изменения и обновления.

Давайте поговорим о мусорных результатах поиска, выдаваемых ИИ.

Я знаю и уважаю Дэнни Салливана годами, и я знаю, что он заботится об успехе издателей. Однако, я хотел бы, чтобы он затронул вопрос уменьшающихся возможностей для экспертов по достижению аудитории через поиск, и постоянно плохие результаты поиска, которые часто показывает Google.

Отсутствуют знания в предметной области.

Google теперь скрывает высококачественные статьи и экспертные мнения в своих результатах поиска. Пользователям приходится копаться в дополнительных меню – а именно, нажимать на вкладку «More» и затем выбирать «News» – чтобы найти этот тип контента.

Как Google скрывает экспертные веб-страницы

Режим ИИ от Google продвигает мусор и сайты, не обладающие экспертизой.

Я не пытался найти плохой пример – это был просто единичный, реальный запрос о том, как стилизовать толстовку.

AI-режим Google ссылается на следующие страницы:

Заброшенный Medium-блог из 2018 года, содержащий всего две записи — и с поврежденными изображениями в обеих — не является надежным источником информации.

Эта информация взята из статьи на LinkedIn, бизнес-ориентированной социальной сети. Однако, это ненадёжный источник экспертных рекомендаций по стилю – большинство людей не обращаются к LinkedIn за подобными советами.

Статья в блоге о толстовках на веб-сайте, который в основном продает кроссовки. Она написана не экспертом и не является надежным источником информации. Странно видеть контент о толстовках на сайте продавца кроссовок – вероятно, люди не посещают этот веб-сайт с этой целью.

Скриншот мусорных результатов ИИ от Google

Google скрывает лучшие материалы во вкладке > News.

Если бы Google отдавал приоритет надёжным источникам, он, вероятно, выводил бы статьи с известных сайтов, таких как GQ или The New York Times. Однако в настоящее время Google прячет эти высококачественные страницы в разделе ‘More’, делая их более сложными для поиска.

Скриншот скрытых высококачественных результатов поиска

GEO или SEO – Не имеет значения.

Все споры о GEO, AEO или даже просто SEO в основном бессмысленный шум. Реальная проблема в том, что Google больше не уделяет приоритетного внимания действительно хорошим веб-сайтам, и в результате эти сайты теряют посетителей и испытывают трудности.

Раздражает видеть столько бесполезных результатов поиска. Раньше Google Search был увлекательным – можно было наткнуться на удивительные веб-сайты и захотеть поделиться ими с другими. Кажется, что этого больше не происходит, и это немного обескураживает.

Мусор на мусоре, на мусоре, поверх еще большего мусора. Google нуждается в перезагрузке.

Не было бы здорово, если бы Google восстановила классический опыт поиска и оставила новые функции Gemini отдельными, возможно, в разделе ‘More’?

Послушайте подкаст здесь:

Смотрите также

2026-01-13 13:40