
Недавно я беседовал с Джесси Дуэром из Perplexity о пересечении SEO и поиска на основе искусственного интеллекта. Мы обсудили, что специалисты по SEO должны приоритизировать, чтобы оптимизировать контент для этих новых AI-поисковых систем. Его идеи предоставили ценные рекомендации для издателей и SEO-специалистов, стремящихся адаптироваться к этой развивающейся среде.
Купил акции на все деньги, а они упали? А Илон Маск снова написал твит? Знакомо. У нас тут клуб тех, кто пытается понять этот цирк и не сойти с ума.
Купить на падении (нет)AI Поиск Сегодня
Важный вывод, которым поделился Джессе, заключается в том, что персонализация полностью меняет всё.
Основное различие между AEO (оптимизацией, усиленной ИИ) и традиционным SEO заключается в том, что это больше не соревнование за единственный лучший результат. Поскольку инструменты ИИ, такие как Perplexity и ChatGPT, теперь могут использовать вашу личную информацию, два человека, ищущие одно и то же, могут видеть разные ответы. Это больше не ситуация, когда ‘победитель получает все’.
Основное различие между GEO и AEO связано с тем, как строятся их индексы. Однако, в общем, устоявшиеся SEO-стратегии по-прежнему хорошо работают сегодня.
Несмотря на то, что Perplexity AI использует поисковый индекс в качестве основы, традиционные практики SEO по-прежнему имеют значение – они помогают определить, рассматривается ли ваш контент вообще изначально. Считается, что Perplexity AI использует систему, аналогичную Google’s PageRank, которая оценивает популярность и релевантность веб-сайтов на основе ссылок, что указывает на то, что SEO-специалистам следует сосредоточиться на создании этих связей.
Однако, как вы увидите, то, что извлекается, значительно отличается от классического поиска.
Чтобы убедиться, что я правильно понимаю, при традиционном поиске вы обычно видите одни и те же десять лучших веб-сайтов для любого поискового запроса. Однако поиск на основе ИИ отличается тем, что он персонализирует результаты на основе разговора, поэтому разным пользователям, вероятно, будут даваться разные ответы.
«Это верно, да.»
Обработка поддокументов: Почему AI-поиск отличается
Джесси продолжил объяснять процесс, происходящий внутри, когда поисковая система искусственного интеллекта создает ответ.
В настоящее время основное различие в работе поисковых систем на основе ИИ заключается в том, как они обрабатывают информацию: некоторые обрабатывают целые документы, а другие разбивают их на более мелкие части.
Типичные поисковые системы работают путем анализа целых веб-страниц. Они оценивают каждую страницу, а затем сохраняют ее для последующего извлечения.
Инструменты ИИ, такие как функция веб-поиска ChatGPT, работают путем выполнения обычного поиска и поиска наиболее релевантных документов — обычно от 10 до 50 из них. Затем он использует большую языковую модель для создания сводки этих результатов. Именно поэтому люди часто шутят, что это похоже на несколько поисков Bing, а затем ИИ представляет информацию — шутка подчеркивает, что ИИ в конечном итоге основывает свои ответы на стандартных результатах поиска.
Как эксперт по SEO, я называю нашу новую стратегию оптимизации ‘Generative Engine Optimization’ или GEO. Вот почему: в то время как текущий поиск по-прежнему полагается на традиционные алгоритмы и оценивает страницы на основе знакомых факторов SEO — по сути, поиск по всему документу — реальная сила ИИ исходит от того, что мы называем ‘sub-document processing’ (обработка поддокументов). Этот подход, ориентированный на ИИ, позволяет нам оптимизировать на гораздо более детальном уровне, выходя за рамки традиционного взгляда на весь документ.
В отличие от традиционных поисковых систем, которые индексируют целые веб-страницы, эта система фокусируется на очень маленьких фрагментах текста — мы называем их ‘snippets’ (сниппеты). Представьте себе сниппет как примерно от 2 до 4 слов, но преобразованный в числовые данные посредством процесса, называемого ‘transformer’ (трансформер) — ключевой компонент ИИ, такого как GPT. Когда вы ищете, система не извлекает целые документы. Вместо этого она быстро собирает около 130 000 этих крошечных, релевантных текстовых сниппетов (около 26 000 отдельных фрагментов), чтобы предоставить их ИИ для обработки.
Как эксперт по SEO, я часто спрашиваю о количестве сниппетов, но эти цифры могут быть вводящими в заблуждение. Реальный предел не в том, *сколько* сниппетов, а в *tokens* (токенах) — общем количестве текста, которое ИИ-модель может обработать за один раз. Прямо сейчас большинство моделей обрабатывают около 130 000 токенов. Моя стратегия всегда состоит в том, чтобы максимально увеличить это контекстное окно с помощью *наиболее* релевантной информации. Почему? Потому что, когда вы заполняете его, вы минимизируете вероятность ‘hallucinating’ (галлюцинаций) ИИ — по сути, выдумывания фактов или предоставления неточной информации. Речь идет о предоставлении ИИ достаточного количества надежных данных для работы, чтобы ему не приходилось гадать.
По сути, это переходит от простого создания контента к предоставлению точных и надежных ответов. Этот подход становится стандартным в отрасли, поэтому его более правильно называть Answer Engine Optimization (оптимизация поисковой системы ответов) или AEO.
Это упрощенное объяснение, но причина, по которой поиски больше не одинаковы для всех, заключается в том, что ИИ-модели могут использовать то, что они знают о *вас*, чтобы понять, что вы действительно ищете. Это позволяет им учитывать гораздо больше информации, чем традиционные профили пользователей, такие как те, которые использует Google.
Для компаний, таких как Perplexity, которые используют ИИ для улучшения поиска, ключ к выделению заключается в том, как они обрабатывают информацию *после* поиска потенциальных результатов, но *перед* их представлением. Используя такие методы, как регулировка вычислительной мощности, уточнение поисковых запросов и уникальные ИИ-модели, эти компании могут обеспечить выделение наиболее релевантной информации, что приведет к более полным и полезным ответам. Эта способность предоставлять лучшие результаты из существующих данных является их самым большим преимуществом.
Просто знайте, что эта идея также объясняет, почему поисковый API Perplexity такой надежный. Для разработчиков, добавляющих поиск в свои продукты, это огромное улучшение по сравнению с другими вариантами.
Дуайер противопоставляет два принципиально разных подхода к индексации и поиску:
- Индексирование всего документа, при котором страницы извлекаются и ранжируются как единые целые.
- Индексирование поддокументов, где смысл хранится и извлекается в виде гранулярных фрагментов.
Первый подход использует ИИ для суммирования результатов из типичной поисковой системы. Второй подход заставляет ИИ напрямую находить и предоставлять конкретные фрагменты информации, не просматривая целые документы.
Он объяснил, что качество ответов модели зависит от того, сколько релевантной информации она может обработать одновременно. Модель работает лучше всего, когда её память (так называемое ‘контекстное окно’) полностью заполнена полезными деталями. Когда это происходит, она реже выдумывает информацию или предоставляет неточные ответы.
Он также объяснил, что их способность находить высокорелевантные результаты поиска обусловлена тщательной настройкой вычислительной мощности, уточнением поисковых запросов и использованием собственных уникальных AI-моделей.
Смотрите также
- Акции MOEX. Мосбиржа: прогноз акций.
- Акции привилегированные TRNFP. Транснефть: прогноз акций привилегированных.
- Золото прогноз
- Акции SNGS. Сургутнефтегаз: прогноз акций.
- Акции PIKK. ПИК: прогноз акций.
- Акции POSI. Positive Technologies: прогноз акций.
- Используйте обзоры ИИ, как эксперты: методы достижения успеха в SEO
- Мулленвег: WP Engine подал иск против WordPress
- Анализ динамики цен на криптовалюту PI: прогнозы PI
- Анализ динамики цен на криптовалюту XDC: прогнозы XDC
2026-01-20 16:16