
Как цифровой маркетолог, я всегда советую клиентам провести простой тест: попросить ChatGPT или Claude дать рекомендацию в нашей отрасли. Если наш бренд не появляется в предложениях, это более серьезная проблема, чем просто SEO. Это означает, что у нас проблема с узнаваемостью бренда, которую нельзя решить только с помощью стратегий ключевых слов. Нам нужно сосредоточиться на повышении узнаваемости, прежде чем беспокоиться о ранжировании.
Купил акции на все деньги, а они упали? А Илон Маск снова написал твит? Знакомо. У нас тут клуб тех, кто пытается понять этот цирк и не сойти с ума.
Купить на падении (нет)Когда SEO-специалисты видят падение видимости, их первой мыслью обычно является контент – создание большего количества страниц, таргетинг большего количества ключевых слов и улучшение внутренней оптимизации. Однако, если ваш бренд не появляется в рекомендациях на основе искусственного интеллекта, проблема, вероятно, связана не с вашим контентом вообще. Вероятно, она исходит из чего-то, называемого реляционными знаниями, концепцией, исследованной в малоизвестной исследовательской работе 2019 года.
Бумагу, которую пропустили большинство маркетологов
Как SEO-эксперт, я внимательно слежу за достижениями в области обработки естественного языка, и одна статья, которая действительно привлекла мое внимание, была опубликована еще в сентябре 2019 года. Фабио Петрони вместе с исследователями из Facebook AI Research и University College London представили свою работу – «Language Models as Knowledge Bases?» – на EMNLP, что является ведущей конференцией в этой области. Это вызвало много дискуссий о том, как мы можем использовать языковые модели для извлечения знаний, и это до сих пор актуально для моей работы сегодня.
Они хотели узнать, просто ли языковые модели, такие как BERT, изучают языковые шаблоны, или они действительно запоминают факты. В частности, хранят ли эти модели информацию о мире, например, ‘Данте родился во Флоренции’ или ‘Apple производит iPod Touch’?
Чтобы оценить, насколько хорошо это работает, исследователи создали инструмент под названием LAMA (LAnguage Model Analysis). Они использовали тысячи установленных фактов из источников, таких как Wikidata, ConceptNet и SQuAD, и преобразовали каждый факт в вопрос с пропущенным словом. Например, они представляли утверждение, такое как, «Данте родился в ___,» и затем просили BERT заполнить пропуск.
Удивительно, но BERT мог вспоминать фактическую информацию почти так же хорошо, как специально разработанная база знаний. Эта база знаний была построена с использованием сложной системы, которая напрямую идентифицировала предложения-ответы, однако BERT – языковая модель, которая просто училась, читая огромное количество текста – работала почти так же эффективно.
Как цифровой маркетолог, я думаю об этом так: эта модель не *искала* ответы, как мы это делаем с Google. Вместо этого она изучала взаимосвязи между словами и идеями в процессе обучения. Представьте себе создание огромной внутренней сети – своеобразной карты мира – того, как всё связано. Когда вы что-то у неё спрашиваете, она не ищет ответ, а перемещается по этой внутренней карте, чтобы найти наиболее релевантные связи, которые она уже изучила.
Вслед за этим развитием, исследователи начали осознавать, что языковые модели не просто умело распознают закономерности – они фактически хранят и используют знания.
Что означает «Реляционные знания»
Петрони исследовал то, что он назвал «реляционными знаниями» – информацией, структурированной как связи между вещами. Это означает выражение фактов с субъектом, отношением и объектом. Например, «Данте родился во Флоренции», «Кения имеет дипломатические отношения с Угандой» и «iPod Touch производится компанией Apple».
Это примечательно с точки зрения того, как бренды могут быть восприняты (и для ИИ в целом), потому что исследователи из команды Петрони обнаружили, что то, насколько хорошо модель запоминает информацию, сильно зависит от *того*, как эта информация структурирована. Они разделили эти структуры на три типа, и различия в точности между ними были значительными.
1-To-1 Relations: One Subject, One Object
Как человек, который годами создавал и поддерживал веб-сайты, я видел, как работают данные. Позвольте мне объяснить это просто: когда система учится, она ищет чёткие связи. Представьте себе это так: если вы неоднократно показываете компьютеру ‘Japan’ и ‘capital’, а ответ *всегда* ‘Tokyo’, он выстраивает очень прочную, прямую связь между этими словами. Это не сложно; это просто последовательное повторение, создающее чёткую ассоциацию. Правильный ответ только один, и система быстро это усваивает.
BERT правильно отвечал на эти вопросы в 74,5% случаев, что впечатляет, учитывая, что он не был специально разработан для поиска фактических ответов.
N-To-1 Отношения: Многие Субъекты, Один Объект
В данной ситуации несколько вопросов имеют один и тот же ответ. Например, вопрос «Каков официальный язык Маврикия?» имеет ответ «English». Однако «English» также является ответом на тот же вопрос о многих других странах. ИИ изучил эту закономерность – вопрос о стране часто приводит к ответу «English» – и понимает общий формат. Иногда, однако, он полагается на этот распространенный ответ вместо того, чтобы находить правильный ответ для конкретной страны, о которой спрашивают.
Точность снизилась до примерно 34%. Модель знает категорию, но путается внутри неё.
N-To-M Отношения: Многие Субъекты, Многие Объекты
Здесь становится сложнее. Когда мы говорим, что «Патрик Обоя играет на позиции ___», это не так просто. Игрок, такой как Обоя, может быть полузащитником, нападающим или вингером, в зависимости от игры. Кроме того, многие игроки могут выполнять любую из этих ролей. Это не прямая зависимость – позиция не автоматически означает одного конкретного игрока, и игрок не всегда играет только на одной позиции.
BERT достиг всего около 24% точности в этой задаче. Хотя он обычно правильно определяет *тип* ответа (например, распознаёт, что это должно быть местоположение, а не город), ему трудно определить конкретный ответ. Вероятно, это связано с тем, что данные, на которых он был обучен, содержали противоречивую информацию, что затрудняет выбор одного правильного ответа.
Что произошло с 2019 года.
Исследование Петрони показало, что языковые модели действительно могут изучать и запоминать информацию о том, как вещи связаны друг с другом. Это естественным образом привело к вопросу о том, *как* они хранят эти знания.
Исследование 2022 года, проведенное исследователями Microsoft и опубликованное на конференции ACL, показало, что определенные нейроны внутри языковой модели BERT хранят отдельные факты. Активируя эти «нейроны знаний», исследователи смогли значительно повысить точность модели – увеличив вероятность выдачи правильного факта в среднем на 31%. И наоборот, подавление этих нейронов снизило точность на 29%.
Позже в том же году Кевин Мэн и его команда из MIT опубликовали статью на NeurIPS под названием «Locating and Editing Factual Associations in GPT». Это исследование применило аналогичные концепции к моделям, таким как GPT – технология, лежащая в основе популярных AI-помощников, таких как ChatGPT и Claude – которые люди обычно используют для рекомендаций. Команда обнаружила, что они могут идентифицировать точные части внутри GPT, которые становятся активными, когда модель вспоминает конкретный факт.
Еще более значимо то, что у них была возможность изменять информацию, которую использовала модель. Они могли обновлять то, что модель ‘знала’ о чем-либо, не нуждаясь в перестройке всей системы.
Как человек, работающий в SEO уже долгое время, могу сказать, что это действительно важное открытие. По сути, если бы способ, которым эти AI-модели связывают идеи, был бы зафиксирован, не было бы особого смысла пытаться улучшить свои позиции в поисковой выдаче. Но, к счастью, это не так. Эти модели учатся на той информации, которую им предоставляют, и *изменяются* при обновлении. Это означает, что контент, доступный в сети – все, от веб-сайтов и справочных документов до обсуждений на форумах и отраслевых отчетов – на момент следующего обновления модели, будет напрямую влиять на то, как она понимает и связывает бренды с конкретными темами. Поэтому, оставаться активным и актуальным в сети важнее, чем когда-либо.
Вот краткий обзор последних исследований в области искусственного интеллекта с 2019 по 2022 год. Работа Петрони продемонстрировала, что модели искусственного интеллекта действительно учатся и сохраняют реляционную информацию. Дай затем определил *где* эти знания хранятся внутри моделей. Исследование Мэнга показало, что эти сохраненные знания не фиксированы — они могут быть изменены. Эта последняя находка особенно важна для тех, кто надеется повлиять на то, как искусственный интеллект рекомендует продукты или бренды.
Что это значит для брендов в AI-поиске
Позвольте мне перевести три типа отношений Петрони в сценарии позиционирования бренда.
Бренд 1-к-1: Тесная ассоциация
Как человек, который годами создавал и поддерживал веб-сайты, когда я думаю об онлайн-платежах, Stripe сразу приходит на ум, и я знаю, что я не одинок. Где бы вы ни посмотрели в интернете – документация для разработчиков, статьи о fintech, даже советы для стартапов – Stripe постоянно связывается с идеей простых онлайн-платежей. Из-за этой сильной ассоциации, когда люди сейчас спрашивают у AI-инструментов, таких как ChatGPT, какая лучшая платежная платформа для разработчиков, Stripe почти всегда является ответом номер один. Это классический пример того, как последовательное связывание бренда с конкретной концепцией действительно укрепляет его положение в умах людей – и в понимании AI, тоже.
Это динамика 1 к 1 от Petroni. Сильный сигнал, отсутствие конкурирующего шума.
The N-To-1 Brand: Lost In The Category
Как SEO-эксперт, я заметил кое-что интересное в отношении AI-моделей и кибербезопасности. Допустим, вы один из многих поставщиков защиты конечных точек – AI *знает* категорию. Он был обучен на огромном количестве разговоров об этом. Однако, когда вы просите его дать рекомендацию, он, как правило, выбирает бренд, который упоминается чаще всего. Дело не обязательно в том, какой бренд *лучший*, а в том, у кого самое сильное онлайн-присутствие – то есть, он часто обсуждается в таких местах, как аналитические отчеты, технические форумы и официальная документация. По сути, он выбирает бренд с самым громким голосом в сети.
Если люди говорят о вашем бренде, но он не выделяется на фоне конкурентов, ИИ, скорее всего, отдаст предпочтение более заметным брендам. Он может иногда упоминать вас, но обычно выберет бренд, который он наиболее сильно связывает с темой.
The N-To-M Brand: Everywhere And Nowhere
Это особенно сложная роль. Компания, крупный поставщик корпоративного программного обеспечения, охватывающего такие области, как облачные сервисы, консалтинг, базы данных и оборудование, затрагивает множество различных тем. Однако, в каждой из этих областей также присутствует множество конкурирующих компаний, и связи не всегда сильны или прямые.
Результаты исследований Петрони с использованием N-to-M связей показывают, что модель генерирует ответы, которые, как правило, являются правильного типа, но ей сложно остановиться на одном, окончательном. Бренд иногда появляется в предложениях, основанных на искусственном интеллекте, но не всегда последовательно при прямом поиске.
Я часто вижу это у крупных компаний. Они создают много контента на различные темы, но недостаточно сосредоточились на создании прочных связей между этим контентом и конкретными ключевыми словами, что затрудняет поиск необходимого поисковым системам.
Измерение разрыва
Если вы считаете, и исследования это подтверждают, что ИИ предлагает вещи, основываясь на том, как он связывает различные идеи внутри своей системы, то важным вопросом становится: можете ли вы понять, как позиционирован ваш бренд в этой сети связей?
Доля упоминаний в ответах ИИ (AI Share of Voice) часто является первым показателем, на который обращают внимание команды. Она измеряет, как часто ваш бренд упоминается в ответах, созданных ИИ. Хотя это и полезно, этот показатель сам по себе не объясняет *почему* вы видите такой результат. Простое знание того, что у вас 8% Share of Voice, не говорит вам о том, что является причиной этого показателя, или какие темы приводят к тому, что вас упускают из виду в релевантных рекомендациях ИИ.
Два бренда могут казаться имеющими одинаковый уровень публичного обсуждения вокруг них, но по совершенно разным причинам. Один бренд может упоминаться в широком спектре тем, но не очень часто в каждой конкретной теме. Другой может быть сильно связан всего с несколькими темами и редко обсуждаться где-либо еще. Эти ситуации представляют собой различные проблемы, которые требуют разных подходов для решения.
Waikay разработал метрику под названием AI Topical Presence, чтобы помочь понять, как ИИ воспринимает ваш бренд. Вместо того, чтобы просто проверять, *находит ли* ИИ вас, он фокусируется на том, *с чем* ИИ вас связывает – и не менее важно, с чем он этого не делает. (Раскрытие информации: я генеральный директор Waikay.)

Эта метрика оценивает ассоциации вашего бренда с темами, основанными на искусственном интеллекте, тремя способами. Во-первых, ‘Depth’ показывает, насколько хорошо искусственный интеллект связывает ваш бренд с важными, релевантными темами. Во-вторых, ‘Breadth’ указывает на количество ключевых рыночных тем, с которыми искусственный интеллект связывает ваш бренд. Наконец, ‘Concentration’ показывает, насколько равномерно распределены эти связи, используя метод из экономики, который измеряет доминирование на рынке.
Сильный бренд, который сосредоточен на нескольких ключевых областях, хорошо известен именно этими вещами, но люди могут не знать о всем остальном, что он предлагает. И наоборот, бренд, который пытается быть всем для всех, легко поколебать – одно изменение может резко повлиять на его видимость. Понимание того, из чего состоит ваш бренд, помогает выявить эти проблемы и найти лучший способ их решения.
Данные показывают новый уровень конкуренции между брендами в этой области. Мы сейчас видим, например, что Inlinks и Neuronwriter являются гораздо более близкими конкурентами, чем считалось ранее. Хотя Neuronwriter не имеет такой же большой доли рынка в целом (и, возможно, я непреднамеренно помог им этой статьей!), он занимает более высокие позиции по конкретному поисковому запросу: ‘What are the best semantic SEO tools?’. Это говорит о том, что при небольшом увеличении маркетинга Neuronwriter может легко превзойти Inlinks – при условии, что Inlinks не улучшит свою собственную стратегию. Ahrefs остается сильным конкурентом, но как комплексная платформа, ему приходится распределять свой фокус между многими продуктами. Это означает, что, несмотря на сильное общее присутствие, он не является самым очевидным выбором для ИИ при ответе на этот конкретный вопрос.
Эта идея связана с моделью Петрони. Если ваш бренд является ведущим голосом по некоторым темам, но не по другим, понимание того, где вы появляетесь в разговорах, раскрывает эти недостающие области. Если многие бренды обсуждают одни и те же темы (N-to-1 или N-to-M), это показывает, какие связи вам нужно укрепить и где конкуренты уже заняли прочные позиции.
От Страниц Рейтингов К Созданию Ассоциаций
На протяжении четверти века поисковая оптимизация (SEO) в основном сосредотачивалась на улучшении ранжирования отдельных веб-страниц. Этот акцент начался с PageRank, алгоритма, предназначенного для оценки страниц, и продолжается даже по мере того, как технологии Google развивались, чтобы понимать концепции и отношения между вещами. Несмотря на эти достижения, большая часть работы по SEO по-прежнему вращается вокруг ключевых слов, создания ссылок и оптимизации контента на каждой странице.
Понимание того, как ИИ видит бренды, требует нового подхода. Модели ИИ делают рекомендации, находя связи, полученные в процессе обучения, основываясь на частоте совместного появления вещей. Простое создание большого количества контента, например, 500 публикаций в блоге на тему, не так эффективно, как упоминание в авторитетных источниках, таких как руководства NIST, отраслевые дискуссии, отчеты аналитиков и технические интеграции – они создают гораздо более прочные связи в понимании ИИ.
Это отличные новости для брендов, известных качественной работой. Простого создания большого количества контента недостаточно для построения прочных связей с людьми. Система определяет, что ценно, анализируя всё в интернете, а не только отдельные веб-сайты. Таким образом, бренд с подлинной экспертизой, о котором говорят во многих местах разные люди, произведёт более сильное впечатление, чем тот, который просто публикует большой объём контента.
Это более сложный вопрос, но исследования, начатые с ‘заполни пробел’ тестов Петрони в 2019 году, помогли нам понять, как это работает достаточно хорошо, чтобы фактически измерить это. И если мы можем измерить что-то, мы можем работать над тем, чтобы улучшить это.
Смотрите также
- Акции EUTR. ЕвроТранс: прогноз акций.
- Акции FESH. ДВМП: прогноз акций.
- Акции CARM. КарМани: прогноз акций.
- Обновление алгоритма поиска Google для борьбы с явными дипфейками
- Google на YouTube «каннибализация» веб-контента
- Тактика копирования рекламы, подкрепленная исследованием более 1 миллиона объявлений Google
- Google Now рекомендует использовать значки с более высоким разрешением
- Google Lens обновлен для покупок в магазинах
- Поиск ошибок: Google Weird Snippet Spact & amp; Bing Urls отрезаны
- Стоимость ИИ снижена в 280 раз за 18 месяцев: что это значит для маркетологов
2026-04-13 15:12