35-летний ветеран SEO: Отличное SEO — это хорошее GEO — но не все занимались отличным SEO.

Как SEO-специалисты, мы уже привыкли к обновлениям алгоритмов, поэтому оптимизация для больших языковых моделей кажется естественным следующим шагом.

Я поговорил с опытным SEO-специалистом Грантом Симмонсом, чтобы узнать его мнение об текущей дискуссии о SEO и GEO – и о том, означают ли эти два термина на самом деле одно и то же.

Грант привносит более 30 лет опыта, помогая брендам добиться успеха. Он был пионером в сосредоточении на основном значении, цели и опыте бренда, еще до недавних достижений в области ИИ и больших языковых моделей.

Я обсудил согласование сигналов с Грантом, понимание работы цитирований LLM на основе недавних патентов Google и распространенные ошибки, которые допускают SEO-специалисты при таргетинге на ключевые слова.

Грант Симмонс отмечает, что даже когда мы создаем контент для ИИ, мы в конечном итоге пишем, чтобы удовлетворить человеческие потребности. Это связано с тем, что ИИ полагается на подсказки и вопросы *от* людей для генерации ответов.

https://www.searchenginejournal.com/wp-json/sscats/v2/tk/Middle_Post_Text

Вы можете посмотреть полное интервью с Грантом на IMHO ниже, или продолжить чтение резюме статьи.

Отличное SEO – это хорошее GEO.

На Google Search Live в декабре 2025 года Джон Мюллер сказал: «Хорошее SEO – это хорошее GEO.»

Я спросил Гранта о различиях между оптимизацией для поисковых систем и для машин, и о том, видит ли он какие-либо общие черты между ними.

Я видел много обсуждений последних замечаний Гранта, и они действительно совпадают с тем, что говорит Джон Мюллер из Google. По сути, многие SEO-усилия просто не достигают цели в наши дни. Что *действительно* важно – и всегда было – это утверждение себя в качестве настоящего авторитета в конкретной теме. Речь не о трюках или ярлыках; речь идет о глубоком понимании и создании контента вокруг того, что волнует вашу аудиторию.

Он объяснил, что машины, такие как Google или большие языковые модели, должны понимать истинный смысл информации, чтобы предоставлять наиболее полезные ответы.

По сути, этим системам нужно сначала понять, что спрашивают, а затем предоставить наиболее релевантный ответ. Это работает довольно схожим образом.

Грант отмечает ключевое различие в том, как поисковые системы оценивают контент. Традиционно, Google фокусировался на ранжировании целых страниц, даже при просмотре конкретных разделов. Большие языковые модели, однако, работают принципиально по-другому.

Большие языковые модели теперь склонны сосредотачиваться на поиске конкретной, легко идентифицируемой информации в тексте – деталей, которые напрямую относятся к вопросу или запросу. Это ключевое отличие в том, как они работают.

Грант подчеркнул, что действительно эффективное SEO всегда включало в себя широкий подход, охватывающий социальные сети, связи с общественностью, создание контента и то, как бренд общается. Создание сильной узнаваемости бренда, обеспечение его видимости везде и поддержание последовательного имиджа бренда на всех платформах теперь имеют решающее значение для того, как бренды появляются в результатах поиска, работающих на базе AI. Именно в этом заключается экспертиза лучших SEO-специалистов.

Как маркетологам, нам необходимо применять те же принципы к собственному маркетингу, что и к маркетингу наших клиентов. Это означает понимание их потребностей и предоставление им правильных решений – и нам нужно делать это и для себя. Мы должны выяснить, что ищут наши потенциальные клиенты, и убедиться, что наш маркетинг отвечает этим потребностям.

Как эксперт по поиску, я часто получаю вопросы о разнице между ‘GEO’ и ‘SEO’. Честно говоря, когда вы действительно преуспеваете в ‘SEO’, вы *фактически* эффективно занимаетесь ‘GEO’ – они становятся одним и тем же. Если ваш ‘SEO’ недостаточно силён, то усилия в ‘GEO’, вероятно, не принесут результата. Но не всегда всё чёрно-белое – определённо есть нюансы, которые стоит учитывать.

Как SEO-специалист с опытом, я заметил кое-что интересное. Те из нас, кто давно в индустрии, не так сильно реагируют на постоянные изменения. Мы уже пережили огромные сдвиги – помните, когда нам приходилось оптимизировать для нескольких поисковых систем до того, как Google стал доминировать? Этот опыт научил нас быть адаптивными. Новичкам в SEO, конечно, сложнее, потому что у них нет такого исторического контекста, на который можно опираться. Они начинают в точке, где всё *кажется* более стабильным, но изменения – это всё ещё единственная константа!

Почему консенсус важен для выявления большими языковыми моделями (LLMs).

Затем я спросил Гранта о недавних патентах Google на продолжение разговоров, которые описывают две отдельные системы, предназначенные для работы в тандеме.

Грант называет первый компонент двигателем уверенности. Он проверяет, может ли информация в тексте быть подтверждена и широко ли она признается в интернете.

Грант объяснил, что тот факт, что несколько человек сообщают одну и ту же информацию, не обязательно делает её фактической, но это указывает на общее согласие. Он считает, что в конечном итоге преобладающее мнение обычно принимается за истину.

Зависит ли что-либо от того, отображается ли это как ссылка изначально, зависит от общего соглашения. Затем движок линковки определяет, возможно ли фактически создать цитату из этого, то есть можно ли его связать в первую очередь, согласно Гранту.

Золотой Контент Знаний Побеждает

Что заставляет контент выделяться для ИИ? По словам Гранта, это «золотые знания» – информация, предлагающая действительно уникальную точку зрения.

Как SEO-эксперт, я всегда говорю своим клиентам, что контент должен быть как оригинальным *и* подкреплен надежными данными – ваши собственные данные – лучшие! Речь идет о формировании собственного обоснованного мнения, а не просто о повторении того, что говорят все остальные. Однако, быть отличным от других недостаточно. Важно помнить, что контент также должен находить отклик у того, что люди *уже* ищут и с чем согласны. Думайте об этом как о предложении уникальной точки зрения, которая все же вписывается в более широкий онлайн-диалог. Уникальность и данные – это ключ, но соответствие существующему веб-консенсусу – это то, что действительно помогает контенту работать.

Грант подчеркнул, что, хотя мы часто обсуждаем написание для компьютеров, наш фокус всегда должен быть на людях. Он объяснил, что в конечном счете мы отвечаем на человеческие запросы и потребности, поскольку все начинается с вопроса или подсказки.

Главный вывод заключается в том, чтобы найти правильный баланс между оригинальностью и согласием с тем, что говорят другие. Контент, который просто повторяет существующие идеи, не будет замечен, а контент, который делает утверждения без подтверждающих доказательств, не вызовет доверия. Лучший подход — делиться новыми идеями, подкрепленными данными, которые другие могут подтвердить.

Самые большие ошибки, которые допускают SEO-специалисты при фокусировке на теме

Грант сказал, что самая большая ошибка, которую он видит в разнообразии тем страниц, — это попытка понравиться абсолютно всем.

По словам Гранта, сосредоточение внимания на том, *что* пользователи намереваются найти, делает очевидной важность каждой страницы на веб-сайте. Он описывает это как создание ‘пути к удовлетворению’ – истинное понимание вашей аудитории и ее потребностей, а затем обеспечение простоты поиска того, что они ищут.

Грант отметил, что большинство SEO-специалистов начинают с существующих веб-сайтов, а не с совершенно новых. Легко увлечься быстрыми исправлениями, такими как обновление title tags, meta descriptions и headings, но он подчеркивает важность в первую очередь проверки того, действительно ли страница отвечает конкретной потребности пользователя и не отклонилась от своей первоначальной цели – то, что он называет ‘drift’.

По словам Гранта, многие SEO-специалисты упускают из виду критически важный шаг: истинное понимание основной цели веб-страницы. Он говорит, что веб-сайты часто непреднамеренно охватывают широкий спектр несвязанных тем, что ослабляет их общую направленность. Удаление этих посторонних областей помогает прояснить, о чём на самом деле эта страница, и это то, что SEO-специалисты часто упускают из виду.

Это напрямую связано с тем, насколько легко контент может быть процитирован ИИ. Если у веб-страницы нет чёткой основной темы, ИИ сложно найти конкретный, самодостаточный ответ на вопрос пользователя. Наличие сфокусированной темы полезно не только для поисковой оптимизации – это необходимо для появления в результатах поиска на основе ИИ.

Рекомендация по стратегии от Гранта на 2026 год

Я закончил тем, что спросил Гранта, что он сейчас рекомендует своим клиентам.

Грант предложил сосредоточиться на том, что уже успешно. Он объяснил, что, хотя подготовка к будущему росту с использованием AI важна, это не повлияет на текущие результаты, поскольку трафик, связанный с AI, все еще низок. Вместо этого команде следует приоритизировать улучшение их поисковой оптимизации (SEO) и обеспечение высоких позиций в результатах поиска. По мере этого они также будут внедрять функции для улучшения видимости на других платформах и поисковых поверхностях.

Он уделяет приоритетное внимание созданию отличного, оригинального контента, который устанавливает его экспертность, подкреплённую данными и поддерживаемую достоверными источниками и цифровым продвижением. Как он говорит, цель состоит в том, чтобы сделать контент настолько захватывающим, чтобы его было невозможно игнорировать ИИ, Google или отраслевым публикациям.

Ключ к успешному SEO, как я практиковал последние 15 лет, прост: создавайте контент настолько исключительный, чтобы он требовал внимания – философия, вдохновленная советом Стива Мартина: «Будьте настолько хороши, чтобы их не могли игнорировать.»

Посмотрите полное интервью с Грантом Симмонсом здесь:

https://www.youtube.com/watch?v=dGxZsuHeAuA

Смотрите также

2026-02-19 17:11

Почему бюджеты перерасходуются, даже если есть целевой ROAS или CPA? – Спросите эксперта по PPC.

Как вебмастер, ведущий PPC-кампании на протяжении многих лет, я часто получаю вопрос о том, почему бюджеты все еще могут превышать ожидаемые, даже когда вы установили целевой ROAS или целевой CPA. Это действительно распространенная проблема, и в этом месяце я рассматриваю этот вопрос в своей серии ‘Ask a PPC’.

Важно понимать разницу между бюджетами и целями при использовании рекламных платформ, основанных на аукционах. Хотя они работают вместе, у них разные цели. В этой статье мы объясним, как работают бюджеты и цели, почему стремление к конкретной рентабельности инвестиций в рекламу (ROAS) иногда может привести к увеличению расходов, и какие инструменты есть у рекламодателей для эффективного управления своими бюджетами.

Разница Между Бюджетами и Целями

Как человек, который управлял большим количеством онлайн-рекламных кампаний, я узнал, что ‘daily budgets’ (ежедневные бюджеты) не всегда *строго* ежедневны. Рекламные платформы обычно работают на основе месячного среднего – около 30-31 дня. Поэтому вы можете заметить, что расходы увеличиваются или уменьшаются в любой конкретный день, но платформа стремится достичь вашего общего месячного бюджета в целом. Не паникуйте, если видите более высокие расходы в один день; речь идет о среднем показателе за весь период, а не о достижении точной цифры *каждый* день.

https://www.searchenginejournal.com/wp-json/sscats/v2/tk/Middle_Post_Text

Даже при ежедневном бюджете в 50 долларов, вы можете увидеть расходы до 100 долларов в некоторые дни. Вот почему это происходит:

  • Превышение количества дней, разрешённых в течение 30.4-дневного периода.
  • Средняя CPC не соответствует ежедневному бюджету.

Как SEO-эксперт, я часто объясняю, что цели вроде Target ROAS или Target CPA — это не жёсткие ограничения расходов. Рассматривайте их как указания, которые вы даете алгоритму – сообщающие ему *как* тратить, а не *сколько*. Это сигнал оптимизации, направляющий систему на достижение желаемой рентабельности или стоимости за действие, а не просто останавливающийся, когда определенная сумма потрачена.

Целевой ROAS инструктирует рекламную платформу стремиться к конкретной рентабельности инвестиций в рекламу, основываясь на ценности каждой конверсии. Целевой CPA, с другой стороны, фокусируется на получении конверсий по установленной цене, не учитывая, сколько стоит каждая конверсия.

Поскольку цели сообщают платформе, к чему мы стремимся, а не устанавливают жесткие ограничения, это может увеличить расходы, если она считает, что это поможет нам достичь этих целей.

Почему целевой ROAS может увеличить расходы

В то время как Целевой ROAS часто рассматривается как осторожный способ управления ставками, он на самом деле может привести к увеличению расходов в некоторых ситуациях.

Часто возникающая проблема возникает, когда цена за клик (CPC) высока по сравнению с вашим ежедневным бюджетом. Если средний CPC превышает примерно 10% вашего ежедневного бюджета, рекламная платформа может быть вынуждена распределять ваши расходы, чтобы получить достаточно релевантных кликов и достичь желаемой рентабельности рекламных инвестиций (ROAS).

Как цифровой маркетолог, я заметил интересную вещь о том, как работают бюджеты на некоторых платформах. Если мы не потратили достаточно средств в начале месяца, система может внезапно увеличить расходы позже, чтобы компенсировать это. Это может показаться скачком, но на самом деле платформа работает над достижением нашего среднего дневного бюджета и захватом потенциальных конверсий, которые мы могли упустить. Всё дело в темпе, и это разработано для максимизации результатов в течение всего месяца.

Получение правильных цифр здесь имеет важное значение. Если платформа получает неточные или преувеличенные данные, она может ошибочно полагать, что дела идут хорошо, когда это не так. Это может привести к ненужному увеличению расходов, поскольку люди гонятся за результатами, которые на самом деле не происходят.

Также важно понимать, как вы категоризируете конверсии. Конверсии, отмеченные как ‘primary’, напрямую влияют на то, как платформа корректирует ваши ставки и сообщает о результатах. ‘Secondary’ конверсии отслеживаются, но не влияют на эти автоматические корректировки. Если вы назначите слишком много конверсий как primary, особенно если они измеряют схожие вещи, платформа может ошибочно посчитать один и тот же успех дважды и потратить больше денег на конкретные ключевые слова, аудитории или сигналы, чем следует.


Как рекламодатели могут защититься от перерасхода средств

Рекламодатели действительно имеют значительные средства управления для контроля поведения расходов.

Один из ключевых моментов – убедиться, что ваш бюджет соответствует фактической стоимости аукционов. Хорошим правилом является установка дневного бюджета таким образом, чтобы он обеспечивал как минимум 10 кликов по типичной цене за клик. Для поисковых запросов, не связанных с вашим брендом, 10% коэффициент конверсии – это очень хорошо. Если вы не получаете достаточно кликов, рекламная платформа может либо сосредоточиться на дорогих возможностях, либо потратить ваш бюджет на трафик более низкого качества, чтобы оставаться в рамках целей по расходам.

Важно реалистично оценивать уровень доверия к отслеживанию конверсий. Многие рекламодатели неточно отслеживают конверсии – их системы неполны или непоследовательны. Это затрудняет доверие к представленным данным, и установка очень строгих целей по рентабельности рекламных инвестиций (ROAS) или стоимости привлечения клиента (CPA) на самом деле может навредить результатам, когда данные ненадежны.

Когда данных мало или они ненадежны, рекламодатели могут скорректировать свои цели, чтобы сделать их более реалистичными, или выбрать стратегию назначения ставок, которая лучше работает с имеющейся у них информацией. Например, если значения конверсий сильно колеблются, сосредоточение на цене за приобретение (CPA) может быть хорошим подходом. Однако, если некоторые конверсии намного ценнее других, простое стремление к минимальной возможной цене CPA может привести к потере денег, поскольку не будет приоритезироваться те конверсии с более высокой стоимостью.

Один часто упускаемый из виду способ улучшить эффективность рекламы — это планирование времени показа ваших объявлений. Ограничение кампаний определенными часами дня может сделать результаты более предсказуемыми и помочь вам максимально эффективно использовать свой бюджет. Если вы пытаетесь сэкономить деньги, рассмотрите возможность запуска рекламы всего несколько часов — от трех до шести — вместо того, чтобы показывать её весь день. Это дает вам больше контроля, не отключая полностью автоматические функции.

Заключительные мысли

Перерасход средств в ставках, ориентированных на цели, обычно не вызван проблемой с самой рекламной платформой. Обычно это происходит из-за того, что бюджет не соответствует желаемым целям, или данные, используемые для управления ставками, недостаточно хороши.

Внимательное отслеживание точности конверсии ваших объявлений, установка реалистичного бюджета и разумное использование таких функций, как планирование показов рекламы, могут помочь предотвратить непредвиденные расходы. Автоматическое назначение ставок работает лучше всего, когда вы тщательно планируете свои настройки и сосредотачиваетесь на том, что действительно важно для вашего бизнеса.

Смотрите также

2026-02-19 16:10

ChatGPT Search Часто Переключается на Английский в Запросах Расширения: Отчёт

Peec AI проанализировал данные со своей платформы, включая более 10 миллионов запросов и 20 миллионов связанных поисков. Они обнаружили, что даже когда люди не начинали с английского языка, 43% времени эти поиски в конечном итоге выполнялись на английском языке.

Что такое Fan-Out запросы?

Поиск ChatGPT от OpenAI использует технику под названием ‘fan-out’, когда вы задаете ему вопрос. Он часто перефразирует ваш исходный вопрос в несколько более конкретных запросов и отправляет их в разные поисковые системы. Если первые результаты не совсем верны, поиск ChatGPT может отправить еще более конкретные запросы другим поставщикам поиска, чтобы уточнить поиск.

Peec AI называет эти расширенные поисковые запросы «fan-outs». Их исследование отслеживало языки, которые ChatGPT использовал при их создании.

https://www.searchenginejournal.com/wp-json/sscats/v2/tk/Middle_Post_Text

Документация OpenAI не описывает, как выбирается язык для переписанных запросов.

Что нашел Peec AI

Peec AI уточнил свои данные, используя только примеры, где местоположение пользователя соответствовало языку, который он использовал в своем запросе. Например, запросы на польском языке поступали от пользователей из Польши, немецкие запросы — из Германии, а испанские запросы — из Испании. Любые запросы, которые не соответствовали этому критерию — например, немецкий запрос из Великобритании — были удалены.

Анализ данных показал, что почти в 78% случаев, когда запросы не были на английском языке, проводился как минимум один последующий поиск с использованием английских ключевых слов.

Запросы, написанные на турецком языке, наиболее часто включали английские переводы – примерно в 94% случаев. Испанские запросы имели самый низкий процент английских переводов – 66%. Однако, даже неанглоязычные запросы с наименьшим количеством английских переводов имели процент выше 60%.

Исследование Peec AI выявило общую тенденцию в разных языках. Когда ChatGPT генерирует ответы, он обычно начинает с поиска информации на языке исходного запроса, а затем включает поиск на английском языке по мере разработки ответа.

Примеры из отчёта

В блоге Peec AI было включено несколько примеров, демонстрирующих, как эта схема может разыграться на практике.

ChatGPT, как правило, преуменьшал или игнорировал Allegro.pl, ведущий польский онлайн-аукцион, когда его спрашивали о лучших платформах в Польше, вместо этого выделяя eBay и другие международные варианты. Peec AI, однако, признает Allegro как самую популярную платформу электронной коммерции в Польше.

Когда у Peec AI спросили о немецких компаниях-разработчиках программного обеспечения на немецком языке, он не назвал ни одной. Аналогично, когда его спросили о косметических брендах на испанском языке, он не упомянул ни одного испанского бренда.

При тестировании с использованием испанской косметики, Peec AI показал, как ChatGPT обрабатывает множественные поиски. Сначала он выполнил поиск на английском языке, затем на испанском, но добавил слово ‘globales’ (означающее ‘глобальные’) к испанскому поиску – термин, которого не было в исходном запросе. Это говорит о том, что ChatGPT предположил, что запрос на испанском языке, поступающий из Испании, означает, что пользователь ищет международные бренды.

Эти примеры взяты из тестов, проведенных с Peec AI, и могут не отражать поведение ChatGPT Search в целом.

Почему это важно

Методологические заметки

Peec AI — это компания, предоставляющая аналитику для AI-поиска. Они собирают данные, используя автоматизированные браузеры для выполнения запросов, создаваемых их клиентами, взаимодействуя с AI-платформами так же, как обычный пользователь на веб-сайте, — вместо использования прямого API-доступа. Данные, проанализированные в этом отчете, поступают из 10 миллионов запросов, выполненных через систему Peec AI, и не основаны на отзывах группы пользователей ChatGPT.

В отчете не было объяснено, из чего состояли запросы, на какие темы или предприятия они были сосредоточены, или насколько точно они отражают то, как люди обычно используют ChatGPT.

Томек Рудзки, автор отчёта, представлен в качестве эксперта по географии в блоге Peec AI. Он уважаемый специалист по SEO, известный выступлениями на отраслевых мероприятиях, таких как BrightonSEO и SMX Munich, а также своими публикациями в изданиях, таких как Moz.

Заглядывая в будущее

Документация OpenAI для ChatGPT Search объясняет, как перефразируются поисковые запросы и как генерируются последующие вопросы, но она не детализирует, как выбирается язык, используемый для этих запросов. В настоящее время неизвестно, является ли способ расширения ChatGPT поисковых запросов из английского – закономерность, обнаруженная Peec AI – преднамеренной функцией или чем-то, что просто развилось само по себе.

Смотрите также

2026-02-19 01:39

Почему Google использует режим ИИ на Flash, объяснение от главного научного сотрудника Google.

Как SEO-эксперт, я нашел комментарии Джеффа Дина, главного научного сотрудника Google, действительно интересными. Он объяснил, что способность Google эффективно запускать Search AI в масштабе сводится к Flash – его скорость и доступность являются ключевыми. Что меня действительно поразило, так это его замечание о том, что *как* мы получаем информацию – это преднамеренный дизайнерский выбор, а не техническое препятствие. Дело не в том, что мы *не можем* делать что-то по-другому, а в том, что Google намеренно построил все именно так, чтобы поддерживать огромный масштаб.

Дин обсудил на подкасте Latent Space, как Flash в конечном итоге был использован для основных операций Search. Он также объяснил, почему система, которая фильтрует весь веб до небольшого количества релевантных документов, как ожидается, останется в использовании в обозримом будущем.

В декабре Google начала использовать Gemini 3 Flash в качестве стандартной AI-модели. В интервью с Дином подробно описаны причины этого изменения.

Почему Flash — производственный уровень

Дин объяснил, что самая большая проблема при использовании ИИ в Поиске — это скорость его ответа. По мере того, как ИИ-модели справляются с более сложными задачами, именно скорость является сдерживающим фактором.

Крайне важно иметь системы, которые быстро реагируют, и использование флэш-памяти — один из способов этого добиться.

Ведущие подкастов отметили, насколько широко используется Flash на платформах, таких как Gmail и YouTube. Дин объяснил, что поиск также становится ключевой областью применения Flash, с расширением его интеграции в такие функции, как AI Mode и AI Overviews.

Flash способен справляться с большими задачами благодаря процессу, называемому дистилляцией. С каждой новой версией Flash опирается на производительность предыдущей, становясь более мощным без увеличения операционных расходов.

На протяжении нескольких версий Gemini нам удавалось создавать быструю, первоначальную версию новейшей модели, которая работает так же хорошо или даже лучше, чем более отполированная, профессиональная версия предыдущей модели.

Этот процесс позволяет ИИ-системам Google постоянно совершенствоваться. Сначала они создают передовые ИИ-модели, чтобы исследовать возможности, а затем совершенствуют эти достижения, превращая их во Flash — систему, предназначенную для обработки огромных потребностей Google Search.

Извлечение вместо запоминания

По словам Дина, дизайн, лежащий в основе Flash и подобных моделей, отдает приоритет доступу к информации из внешних источников, а не ее внутреннему хранению. Идея заключается в том, что модели должны сосредотачиваться на эффективной обработке данных, а не на запоминании фактов, которые они могут легко найти в другом месте.

Неэффективно использовать ограниченные возможности модели для запоминания несущественных деталей, которые можно легко найти в другом месте.

Почему поэтапное извлечение, вероятно, сохранится

Поисковые системы с искусственным интеллектом не могут одновременно обрабатывать весь интернет. Ключевое ограничение заключается в том, что технология, используемая для фокусировки на релевантной информации, становится невероятно требовательной по мере роста объема текста, который ей необходимо анализировать. По словам Дина, обработка около миллиона фрагментов текста уже является значительной задачей. Расширение до миллиардов или даже триллионов фрагментов текста невозможно с использованием текущих подходов.

Дин предвидит будущие модели ИИ, которые, кажется, обрабатывают огромные объемы информации — триллионы элементов, на самом деле. Достижение этого потребует инновационных подходов, выходящих за рамки простого увеличения текущих технологий. Пока что поиск в ИИ, вероятно, будет продолжаться путем первоначального поиска нескольких релевантных документов из гораздо большего набора, а *then* создания ответа.

Почему это важно

Искусственный интеллект, который анализирует ваш контент, постоянно совершенствуется, но он приоритизирует быструю обработку информации над глубоким её пониманием. Он создан для поиска и использования вашего контента при необходимости, а не для его постоянного хранения. Чтобы появиться в результатах поиска на основе искусственного интеллекта, наиболее эффективной стратегией является сосредоточение на том, как Google в настоящее время находит и ранжирует веб-сайты.

С тех пор, как Google представила свои AI-функции с Gemini 2.0, мы отслеживали все обновления базовых AI-моделей. Изначально был выпущен Gemini 3 с AI Mode, а затем Gemini 3 Flash стал стандартной моделью спустя месяц. Теперь Gemini 3 является стандартной моделью, обеспечивающей работу AI Overviews по всему миру.

Google последовательно разрабатывает новые модели в два этапа: сначала создавая мощную, передовую версию, а затем дорабатывая её, превращая в более быструю и эффективную версию для повседневного использования. По словам Дина, этот двухэтапный процесс является долгосрочным планом Google по поддержанию своих поисковых возможностей, а не просто краткосрочным решением.

Взгляд в будущее

По словам Дина, поэтапный поиск, вероятно, останется популярным до тех пор, пока механизмы внимания не смогут преодолеть свои текущие ограничения в вычислительной мощности. Разработка Google Flash указывает на то, что они планируют использовать этот подход во многих будущих моделях.

Ключевым направлением развития, за которым стоит следить, является автоматический выбор модели. Robby Stein из Google обсуждал идею интеллектуальной перенаправки сложных вопросов на более мощную модель ‘Pro’, при этом продолжая использовать более быструю модель ‘Flash’ для большинства запросов.

Смотрите также

2026-02-19 00:40

Влияют ли изменения органической видимости в Google на цитаты в AI-поиске?

Мой анализ производительности подпапок с использованием Sistrix U.S. Visibility Index показывает, что положительная тенденция сохранялась и в середине февраля.

Рассматривая общую картину, вот как меняется видимость на всех веб-сайтах, а не только в блогах.

Это показывает, как видимость влияет на корпоративный блог нашего крупнейшего клиента – того, у которого самый высокий годовой повторяющийся доход и органический поисковый трафик.

Вот как это влияет на общую видимость компании в Google и других поисковых системах.

https://www.searchenginejournal.com/wp-json/sscats/v2/tk/Middle_Post_Text

В последнее время мы заметили значительное падение органической поисковой видимости для нескольких веб-сайтов, гораздо большее, чем то, что мы наблюдали в их общей поисковой производительности за последние несколько лет. Чтобы понять, что происходит, я проанализировал данные с 11 наиболее пострадавших сайтов, надеясь найти какие-то ответы.

Я считаю, что недавнее снижение цитирования AI-поиска не ограничивается стандартными поисковыми системами. Я ожидаю, что тенденции цитирования для большинства больших языковых моделей (LLMs) на самом деле будут следовать закономерностям, которые мы наблюдаем в обычных результатах поиска Google, и есть две основные причины, по которым я так думаю.

1. Прямая линия: Экосистема ИИ от Google

Мы ожидаем увидеть наиболее чёткую связь между позициями в поисковой выдаче и ответами ИИ для собственных ИИ-функций Google, таких как AI Mode и Gemini. Поскольку Google, вероятно, использует свой собственный поисковый индекс и лучшие результаты для создания этих ответов ИИ, страницы, которые падают в поисковой выдаче, должны естественным образом упоминаться реже в этих ответах.

2. Последствия для downstream: Сторонние LLM (ChatGPT & Perplexity)

Сложно определить, как поисковые ранги Google влияют на результаты от инструментов искусственного интеллекта, таких как ChatGPT и Perplexity. Мы не уверены, какие поисковые системы эти инструменты ИИ фактически используют при поиске информации в сети.

Я хотел выяснить, почему некоторые подпапки на нашем сайте недавно потеряли видимость в результатах поиска Google. В частности, я проверил, было ли соответствующее уменьшение частоты, с которой на эти страницы ссылаются функции поиска на основе искусственного интеллекта.

Сравнение падения органической видимости с цитированиями AI-поиска

Я начал с определения 11 веб-сайтов, которые столкнулись со значительным снижением органического трафика в определенных разделах своих сайтов в период с 20 января по 16 февраля 2026 года.

Я использовал Ahrefs и Claude, чтобы найти оценку органического поискового трафика для каждой секции веб-сайта. Поскольку снижение трафика обычно началось примерно 21 января 2026 года, я сравнил прогнозируемые цифры трафика от 20 января 2026 года с теми, что были 16 февраля 2026 года.

Я удалил фактические веб-адреса, но сохранил названия конкретных разделов внутри этих сайтов. Я также включил краткое общее описание каждой компании и того, для чего использовался этот раздел, не раскрывая никаких идентифицирующих деталей.

С 20 января 2026 года трафик из органического поиска к этим подпапкам снизился, варьируясь от падения на 5,7% до падения на 53,1%.

С помощью Ahrefs Brand Radar вы можете отслеживать, как часто конкретные разделы веб-сайта упоминаются поисковыми системами с искусственным интеллектом, такими как ChatGPT, с течением времени. Например, график ниже показывает, как часто первый раздел таблицы (ориентированный на данные по США) цитировался ChatGPT.

Вот взгляд на тренд органического трафика для этой конкретной секции веб-сайта. Как вы можете видеть, мы начали замечать снижение примерно 21 января 2026 года, и я изучаю причину.

Я объединил данные из Ahrefs и Claude, чтобы изучить трафик веб-сайтов и обратные ссылки, сосредоточившись на 11 конкретных разделах, которые испытали значительное снижение производительности.

Вот простая сводка того, как изменился трафик веб-сайта из поисковых систем (например, Google) и количество ссылок на источники при использовании различных инструментов искусственного интеллекта, включая AI Mode, ChatGPT, Perplexity и Gemini.


Результаты:

  • Данные показывают общее снижение как SEO-трафика, так и цитирований в AI-поиске: в каждом подкаталоге исследования (11 из 11) наблюдалось снижение как органического трафика Google, так и общего количества цитирований в AI-поиске, при этом среднее снижение цитирований составило -22,5%.
  • AI Mode от Google (-23.8%) и ChatGPT (-27.8%) продемонстрировали наиболее значительное падение, тесно отражая среднее падение органического трафика на -26.7%.
  • В то время как Gemini также показал широкое снижение (на 10 из 11 сайтов), Perplexity оказался наиболее устойчивым, при этом снижение наблюдалось только на 4 из 11 сайтов, а среднее изменение было значительно мягче — -2.9%.
    • Эти данные подтверждают теорию о том, что Perplexity в основном использует поисковые поверхности, отличные от Google, для генерации своих ответов.

С 20 января по 16 февраля 2026 года мы наблюдали тесную связь между трафиком веб-сайта из поисковых систем и упоминаниями в AI-поисках. Когда органический трафик на определенные разделы веб-сайта снижался, мы почти всегда наблюдали аналогичное падение частоты цитирования этих разделов AI-поисковыми системами.

Внимательно изучив несколько AI-платформ – таких как AI Mode от Google, ChatGPT, Perplexity и Gemini – мы обнаружили, что у большинства наблюдалось снижение количества цитирований. Однако Perplexity выделялся, последовательно демонстрируя *увеличение* цитирований по многим темам, даже несмотря на снижение общего трафика веб-сайта.

ChatGPT постоянно испытывает самые большие падения в рейтинге по большинству категорий, часто опускаясь ниже, чем AI Mode и Gemini. Это удивительно, потому что, в отличие от Gemini, ChatGPT не является продуктом Google, но, похоже, он в большей степени подвержен естественным колебаниям в результатах поиска.

Похоже, это ещё одно доказательство того, что ChatGPT полагается на поисковый индекс Google при извлечении информации.

Веб-сайты, где Perplexity наблюдало снижение трафика (например, Site J и Site K), также столкнулись с меньшими падениями общего органического поискового трафика. Это говорит о том, что даже когда трафик Perplexity снижался, это не было связано с тем, сколько органического трафика потеряли эти сайты в целом, что подтверждает идею о том, что Perplexity получает информацию из другого источника, чем традиционные поисковые системы.

Нижеприведенная таблица показывает все данные по органическому поиску и поиску с помощью ИИ в одном месте:

Данные показывают сильную связь между потерей видимости в Google и снижением цитирований из инструментов поиска на основе ИИ. В частности, подпапки, которые показали худшие результаты в поиске Google, также зафиксировали среднее падение упоминаний на 22,5% в различных моделях ИИ.

ChatGPT испытал самое большое падение количества цитирований, снизившись на целых 42,3% на одном веб-сайте (Site E). Фактически, количество цитирований уменьшилось более чем на 34% более чем в половине его категорий, иногда даже более резко, чем общее снижение количества посетителей веб-сайта.

Как эксперт по поиску, я внимательно слежу за моделями искусственного интеллекта Google. Мы видели, что AI Mode от Google изначально показывал хорошие результаты, но со временем его показатели снизились, как и у других ранних интеграций искусственного интеллекта. Однако Gemini оказался более стабильным, демонстрируя меньшее снижение производительности во всех областях, которые мы протестировали.

Perplexity выделяется тем, что увеличил количество цитирований в 7 из 11 категорий, что позволяет предположить, что он не полагается на результаты поиска Google.

Интересно, что наши исследования показывают, что ChatGPT, который не разработан компанией Google, похоже, больше полагается на результаты поиска Google для своей информации, чем собственная ИИ-модель Google, Gemini. Это говорит о том, что ChatGPT сильно зависит от Google для поиска информации в сети.

Основные выводы

Я последовательно предостерегал от использования рискованных SEO-тактик только для того, чтобы попытаться улучшить ваши результаты в AI-поиске. Такие вещи, как скрытие контента, показ разного контента пользователям и поисковым системам, или создание саморекламных списков могут дать вам быстрый импульс в AI-поиске, но они могут серьезно навредить вашим позициям в Google и Bing. Эти методы могут создать большие проблемы, чем они решают в долгосрочной перспективе.

Как SEO-эксперт, я вижу всё более чёткие доказательства того, что AI-поиск и традиционное SEO тесно переплетены. Что я обнаруживаю: если ваш веб-сайт начинает ранжироваться ниже в обычных результатах поиска Google, вы, вероятно, можете ожидать аналогичного падения частоты упоминаний вашего сайта инструментами AI – не только собственными AI-функциями Google, но и такими вещами, как ChatGPT. Похоже, что эти AI-инструменты сильно зависят от результатов поиска Google для построения своих ответов, поэтому SEO как никогда критично.

Как цифровой маркетолог, я внимательно слежу за тем, как недавнее обновление алгоритма повлияло на различные AI-платформы. Интересно, что Perplexity фактически *приобрела* цитирования во многих затронутых областях, что является положительным знаком. Однако, нам нужно сохранять это в перспективе. В то время как Perplexity демонстрирует рост, абсолютный объем трафика значительно отличается. Similarweb недавно сообщила, что ChatGPT получила 5.8 миллиарда веб-посещений в августе, по сравнению с 148.2 миллионами для Perplexity. Таким образом, хотя результаты Perplexity обнадеживают, ChatGPT все еще доминирует в плане общего охвата.

Кроме того, учитывая, что Google по-прежнему получает гораздо больше поискового трафика органически, чем все платформы поиска на основе искусственного интеллекта вместе взятые, ваша поисковая видимость – будь то в традиционных поисковых системах или в AI-чатах – в конечном итоге зависит от того, как Google оценивает ваш контент.

За последний год специалисты по SEO обсуждают, насколько традиционная поисковая оптимизация связана с искусственным интеллектом и географическим SEO. Эти данные показывают, что они тесно связаны: прочная SEO-база необходима для хорошего ранжирования в поисках на базе ИИ, и всё, что наносит ущерб вашим обычным поисковым позициям, также может негативно повлиять на вашу видимость в результатах ИИ. По сути, если вы хотите избежать потери видимости в AI-поиске, убедитесь, что ваши Google-позиции остаются сильными.

Эта статья была первоначально опубликована в Lily Ray NYC Substack.

Смотрите также

2026-02-18 17:41