Спросите СЕО: Почему ключевые слова не вернулись после изменения контента страницы?

На этой неделе вопрос задаёт Джуби из Кералы:

Недавно мы переработали содержимое страницы потому что там не было релевантных ключевых слов После обновлений нужные ключевые слова появились но через четыре недели они снова исчезли Можете ли вы помочь нам понять почему так произошло и предложить пути улучшения?

Рад встрече с тобой, Джуби, спасибо за вопрос.

При изучении вашей веб-страницы выяснилось, что она дружелюбна для пользователей, разговорчива и богата ключевыми словами, однако общая структура или организация могут потребовать улучшения для обеспечения более плавного взаимодействия с пользователем.

SEO — это больше, чем слова на странице. Это также:

  • Как ваш бренд представлен третьими лицами.
    Код сайта.
    Опыт пользователя и робота определяется как топологически, так и структурно.
    Bceсторонняя оценка качества опыта для пользователей, роботов и алгоритмов.

https://www.searchenginejournal.com/wp-json/sscats/v2/tk/Middle_Post_Text

Изменение формулировок на странице может помочь и действительно помогает, но это также зависит от всего остального сайта.

Я потратил около пяти минут на изучение вашей веб-страницы, и несколько аспектов привлекли мое внимание. После анализа с помощью инструмента SEO, предоставляющего историю сайта, я выявил некоторые начальные рекомендации для повышения рейтинга вашего сайта. Надеюсь, эти советы помогут улучшить также проекты ваших клиентов.

Сосредоточьтесь на своей целевой аудитории и регионе

Прежде всего, важно отметить, что на вашем сайте используется американский вариант английского языка, а также соответствующие языковые декларации. Однако наша главная задача — привлечь предприятия в штате Керала, Индия. Наша специализация заключается в предоставлении цифровых маркетинговых услуг, адаптированных специально для местных компаний данного региона.

Как специалист по поисковой оптимизации (SEO), я недавно решил проверить какой язык преимущественно используется в Америке. Но оказалось, что чаще всего говорят на малаялам.

Для обеспечения доступности широкому кругу пользователей рекомендуется разместить на вашем сайте версии как на английском, так и на малаяламском языках. Также проанализируйте поисковое поведение в вашем регионе для оптимизации контента.

Это важно как для вас, так и для ваших местных клиентов в области SEO и маркетинга.

В Скандинавии я обнаружил, что рекламные ролики по телевидению в Швеции обычно идут на английском языке. В результате люди чаще искали товары и их типы именно на английском, а не на шведском.

Использование обоих языков в контенте и PPC-кампаниях привело к значительному увеличению конверсий и доходов по сравнению с использованием только шведского языка, когда я впервые начал работать над этим брендом.

Отдавайте приоритет использованию их основного языка, когда они не ищут в первую очередь на английском; вместо этого сохраняйте английский как дополнительный вторичный язык.

После этого задумайтесь о вашей бизнес-модели. Поскольку это локальный бизнес, это замечательно, но не забывайте также адаптировать то, как вы описываете регион, которому предоставляете услуги, и конкретные услуги, которые предлагаете.

Как специалист по цифровому маркетингу, могу порекомендовать внедрить схему услуг (service schema), чтобы наглядно продемонстрировать предлагаемые вами услуги. Так как вы местный бизнес и обслуживаете определенную географическую зону, важно включить в вашу схему информации о местоположении, которое вы обслуживаете, что поможет потенциальным клиентам понять, где вы работаете.

Убери взломленный код

Создается впечатление, что неавторизованные лица получили доступ к вашему сайту и перегрузили его большим количеством неуместного контента с целью повышения его позиций в поисковых системах по различным брендам и их продуктам.

Хорошо, что эти страницы возвращают ошибку 404, но они все же индексируются. Чтобы обеспечить надлежащее управление, измените их статус на 410 (Gone) и проверьте синтаксис файла robots.txt для корректного блокирования параметров. Похоже, в правиле отсутствует звездочка.

Кроме того, вы могли бы подумать о создании полномасштабного файла robots.txt вместо использования настроек по умолчанию вашего программного обеспечения, которые обычно включают только одну строку «disallow».

Отменить Переоптимизацию

Сайт в значительной степени игнорирует хорошие практики оптимизации, предпочитая вместо этого использовать излишние методы оптимизации, многие из которых ставят на первое место пользовательский опыт по сравнению с ранжированием в поисковых системах.

Как опытный вебмастер, я заметил, что на нескольких моих страницах мета-описания состоят просто из набора ключевых слов, разделенных запятыми, вместо понятных кратких предложений, которые дают представление о том, с чем столкнутся посетители после перехода по ссылке. Хорошо составленное мета-описание может значительно улучшить пользовательский опыт и потенциально увеличить количество кликов.

Чтобы убедиться в точности своего понимания, я провёл поиск по запросу «site:вашдомен» в Google и обнаружил, что описания состояли исключительно из ключевых слов, разделённых запятыми.

Улучшите свои мета-описания, чтобы дать пользователям повод кликнуть на вашу страницу. Здесь вы найдёте моё руководство по составлению эффективных заголовков и мета-описаний для местного поискового маркетинга.

Вместо того чтобы иметь около двухсот бэклинков из каталогов и сомнительных сайтов, следует сосредоточиться на получении внимания через авторитетные местные СМИ и торговые организации Индии. Как можно добиться такого результата?

Есть ли местный торгово-промышленный союз или группа малого бизнеса и местных предпринимателей с которыми вы можете сотрудничать?

Пересмотри свой блог

Блог содержит материалы по теме, однако не хватает глубины; статьи, предназначенные для ответа на вопросы, скорее направлены на рекламные акции продаж, нежели предоставляют подлинные ответы.

Эффективнее избегать включения продающих текстов в начальные части статьи блога или руководства, например, в первый абзац или даже первые несколько параграфов. Этот подход помогает поддерживать интерес читателей и доверие к автору, предоставляя ценный контент до введения любого рекламного материала.

Делясь ценными знаниями, вы предоставляете возможность людям учиться и развиваться. Когда они ценят предоставленную вами информацию, это укрепляет их доверие к вам. Если тема соответствует вашему продукту или услуге, то именно тогда можно сделать привлекательное предложение о том, что вы предлагаете.

В процессе моего общения я прочитал несколько статей, но после рекламного блока вы предложили идеи, что похвально. Однако ещё более полезным было бы включение практических примеров, которые пользователи могли бы сразу применить.

На страницах отсутствуют визуальные вспомогательные средства вроде диаграмм или картинок для объяснения идей, деталей об авторе контента и практических шагов по применению решения.

Один пост затрагивает тему медленной загрузки веб-страниц, но не предлагает возможные решения или начальные шаги, а лишь определяет концепцию этой проблемы. Это заставляет читателя проводить дополнительный поиск, что приводит к неоптимальному пользовательскому опыту.

Чтобы оптимизировать производительность вашего сайта, рассмотрите внедрение нескольких ключевых стратегий, таких как удаление ненужных типов файлов вроде старых резервных копий, неиспользованных медиафайлов и устаревших скриптов. Еще одним подходом является рендеринг на стороне сервера (server-side rendering), который может улучшить время загрузки страниц за счет их отображения на сервере до отправки клиенту. Например, использование Next.js для приложений React или Flask для веб-фреймворков Python облегчает этот процесс. Кроме того, сжатие изображений, которые не требуют высокого разрешения, может существенно сократить вес страницы и повысить удобство использования сайта. Для этой задачи помогут инструменты вроде TinyPNG, Kraken.io или ImageOptim.

Как профессионал в области диджитал маркетинга у меня есть несколько реальных задач, и вот прекрасная возможность дополнить мой контент внутренними ссылками. Так я смогу легко направлять читателей к более полным руководствам на нашем сайте, при этом используя соответствующие ключевые слова, которые идеально согласуются с темой статьи. Это не только предоставляет ценные ресурсы для моей аудитории, но и повышает SEO наших страниц. Все в выигрыше!

Это значительно улучшает опыт пользователя, предоставляя ему стимул вернуться или воспользоваться вашими услугами в будущих проектах.

В нескольких постах автор неоднократно включает внутренние ссылки в фразы, которые не кажутся естественными для текста. Эти ссылки можно найти в промо-разделах, начале и конце каждого поста.

С теоретической точки зрения такой подход может не навредить поисковой оптимизации (SEO), но он не принесет пользы пользователю. Если пользователи склонны быстро покидать страницу после посещения (bounce rate), это потенциально может сигнализировать о плохом качестве пользовательского опыта в глазах Google, что может повлиять на его ранжирование.

Вместо того чтобы начинать каждое взаимодействие с рекламного сообщения, сосредоточьтесь сначала на формировании списка подписчиков для электронной почты или текстовых сообщений. После этого используйте стратегические техники ремаркетинга, чтобы привлечь этих людей обратно к вашей платформе позднее.

Если вы начинаете с продажи без предоставления истинного решения проблемы, люди вероятнее всего покинут вашу страницу, так как это воспринимается как предложение малоценного или некачественного контента.

Заключительные мысли

Ваши страницы услуг в целом неплохи, но есть проблемы с остальной частью сайта.

Вот предложение для переформулирования: Крайне важно провести редизайн и адаптировать его под вашу конкретную аудиторию, убрать излишнюю оптимизацию и стремиться сделать наше агентство ведущим в области цифрового маркетинга в вашем регионе. Главное, убедитесь, что код и контент хорошо структурированы и доведены до совершенства.

Проект требует переосмысления с учетом особенностей вашей аудитории, устранения ненужной оптимизации и стремления к тому, чтобы позиционировать наше агентство как первоклассного партнера в сфере цифрового маркетинга на местном уровне. В основе лежит необходимость тщательной очистки кода и контента.

Представляя подобные методы работы, потенциальные клиенты могут испытывать сомнения, что потенциально может привести к потере деловых возможностей.

Кроме того, не забудьте создать профиль в Google Бизнесе, так как вы работаете из физического местоположения, у вас есть активные клиенты и предоставляете услуги. В настоящее время похоже, что вы не используете этот полезный инструмент.

Надеюсь, это поможет, и спасибо за такой хороший вопрос.

Смотрите также

2025-05-20 14:39

Используйте IndexNow для поискового и торгового SEO с использованием искусственного интеллекта

Проще говоря, недавно компания Microsoft объявила о том, что Bing – их продвинутая технология индексации сайтов – позволяет интернет-магазинам оперативно отображать самые свежие и точные детали товаров в поиске с искусственным интеллектом и других вариантах поиска в магазинах.

Генеративный поиск требует своевременной информации о покупках

Онлайн-рынки обычно полагаются на фиды продавцов, веб-скрапинг поисковыми системами и обновления структурированных данных Schema.org для отображения товаров, новых предметов, снятых с производства товаров, корректировок цен, статуса наличия и других важных деталей. Однако каждый метод имеет потенциальные проблемы, такие как медленные скорости сканирования поисковых систем и непоследовательные обновления, что может привести к задержкам в предоставлении точной информации в AI-управляемых функциях поиска и покупок.

Благодаря использованию IndexNow удается эффективно решить проблему медленной индексации контента. Значительные платформы как Wix, Dudas, Shopify и WooCommerce включают в себя технологию IndexNow от Microsoft, что ускоряет процесс индексации вновь созданного или обновленного контента. Комбинируя IndexNow со Schema.org, можно обеспечить быструю индексацию, гарантируя оперативное появление достоверной информации в инструментах поиска искусственного интеллекта и шопинга.

https://www.searchenginejournal.com/wp-json/sscats/v2/tk/Middle_Post_Text

‘title’ (наименование в JSON-LD)
description
price (розничная цена или оптовая цена)
link (URL страницы продукта)
image link (изображение в JSON-LD)
sshipping (особенно важно для Германии и Австрии)
id (уникальный идентификатор товара)
brand
gtin
pmn
datePublished
dateModified
Дополнительные поля, способствующие расширению контекста и классификации:
category (помогает группировать товары на платформах поиска и шопинга)
seller (рекомендуется для маркетплейсов или реселлеров)
itemCondition (например, NewCondition, UsedCondition)”

Читайте подробнее в блоге Microsoft Bing:

IndexNow обеспечивает более быстрые и надежные обновления для шопинга и рекламы.

Смотрите также

2025-05-20 11:08

Как автоматизировать кластеризацию ключевых слов SEO по поисковому намерению с помощью Python

Понимание намерений поиска — сложная задача, которую можно решать различными способами. Один из подходов включает использование продвинутых алгоритмов обучения для интерпретации намерений поиска путем классификации текста и разбора названий страниц результатов поисковой системы (SERP) с использованием методов обработки естественного языка (NLP). Другой стратегией является группировка результатов по их семантической близости, при этом детально объясняются преимущества этих методик.

Помимо распознавания преимуществ понимания поискового намерения (intent), мы обладаем несколькими методами эффективного масштабирования и автоматизации.

Так почему нам нужна ещё одна статья об автоматизации интентов поиска?

Ищет намерение сейчас еще важнее, так как появился поиск на основе искусственного интеллекта.

В отличие от эпохи поиска с десятью синими ссылками, когда результаты были изобильными, технология ИИ для поисковых систем стремится снизить затраты на вычисления в операциях над плавающей точкой (FLPO), чтобы эффективно предоставлять свои услуги.

Поисковые результаты по-прежнему содержат лучшие инсайты относительно намерений поиска

Как специалист по SEO, я добился успеха с двумя основными стратегиями. Первая стратегия заключается в создании собственной системы искусственного интеллекта: собираются названия контента со страниц высокого ранга для конкретного ключевого слова, после чего данные вводятся в специально созданную и проверенную модель нейросети. В качестве альтернативы я использую обработку естественного языка (NLP) для группировки ключевых слов, что позволяет выявлять паттерны, тренды и потенциальные возможности для эффективного улучшения усилий по SEO.

https://www.searchenginejournal.com/wp-json/sscats/v2/tk/Middle_Post_Text

Как быть, если у вас нет времени или знаний для создания собственного ИИ (искусственного интеллекта) или использования API Открытого Искусственного Интеллекта?

Вместо того чтобы полагаться исключительно на сходство косинусов как идеальное решение для экспертов по поисковой оптимизации в вопросе определения тем и структуры веб-сайта, я считаю группирование результатов поиска по результатам SERP значительно более эффективным подходом.

Это связано с тем, что ИИ сильно зависит от результатов поисковых систем как основы для своих выводов, и этому есть веская причина – он разработан для имитации поведения пользователей.

Альтернативный подход использует встроенные возможности ИИ от Google для выполнения задач за вас, позволяя обойти необходимость вручную собирать данные с страниц результатов поиска и создавать собственную модель ИИ.

Предположим, Google ранжирует URL-адреса вебсайтов в зависимости от того, насколько хорошо их содержимое соответствует запросу пользователя, причем наиболее релевантные находятся сверху. Это значит, что если две ключевые слова имеют одну и ту же цель, результаты поиска (SERPs) будут очень похожи.

В течение долгого времени эксперты по поисковой оптимизации анализировали страницы результатов поисковых систем (SERP) для конкретных ключевых слов, чтобы понять и не отставать от общих намерений пользователей за этими запросами, что не является чем-то новым в контексте основных обновлений.

Здесь главное преимущество заключается в автоматизации и расширении процесса сравнения, обеспечивая эффективность и повышенную точность.

Как кластеризовать ключевые слова по поисковому намерению на масштабном уровне с помощью Python (с кодом)

Предполагая, что у вас есть результаты поисковой выдачи в формате CSV, давайте импортируем их в вашу записную книжку на Python.

Импортируйте список в свой блокнот на Python

import pandas as pd
import numpy as np

serps_input = pd.read_csv('data/sej_serps_input.csv')
del serps_input['Unnamed: 0']
serps_input

Ниже представлен файл SERP, который сейчас импортирован в DataFrame Pandas.

Фильтрация данных для страницы 1

Мы хотим сравнить результаты на первой странице каждого SERP между ключевыми словами.

Чтобы наша функция фильтрации работала эффективно, мы разделим большой датафрейм на более мелкие датафреймы по ключевым словам. Таким образом, можно будет фильтровать данные на уровне ключевых слов, а затем объединить все эти мини-датафреймы обратно в один всеобъемлющий датафрейм.

# Split 
serps_grpby_keyword = serps_input.groupby("keyword")
k_urls = 15

# Apply Combine
def filter_k_urls(group_df):
    filtered_df = group_df.loc[group_df['url'].notnull()]
    filtered_df = filtered_df.loc[filtered_df['rank'] <= k_urls]
    return filtered_df
filtered_serps = serps_grpby_keyword.apply(filter_k_urls)

# Combine
## Add prefix to column names
#normed = normed.add_prefix('normed_')

# Concatenate with initial data frame
filtered_serps_df = pd.concat([filtered_serps],axis=0)
del filtered_serps_df['keyword']
filtered_serps_df = filtered_serps_df.reset_index()
del filtered_serps_df['level_1']
filtered_serps_df

Преобразовать URL рейтинга в строку

Поскольку URL-адреса из результатов поисковых запросов превышают количество уникальных ключевых слов, необходимо сократить эти URL в краткий формат одной строки, который включает ключевое слово и его SERP.

Вот как:


# convert results to strings using Split Apply Combine 
filtserps_grpby_keyword = filtered_serps_df.groupby("keyword")

def string_serps(df): 
   df['serp_string'] = ''.join(df['url'])
   return df # Combine strung_serps = filtserps_grpby_keyword.apply(string_serps) 

# Concatenate with initial data frame and clean 
strung_serps = pd.concat([strung_serps],axis=0) 
strung_serps = strung_serps[['keyword', 'serp_string']]#.head(30) 
strung_serps = strung_serps.drop_duplicates() 
strung_serps

Ниже показано описание поисковой выдачи (SERP), сжатое в одну строку для каждого ключевого слова.

Сравните расстояние до поисковой выдачи (SERP)

Для выполнения сравнения нам теперь необходимы все возможные сочетания пар ключевых слов (SERP) с другими парами.


# align serps
def serps_align(k, df):
    prime_df = df.loc[df.keyword == k]
    prime_df = prime_df.rename(columns = {"serp_string" : "serp_string_a", 'keyword': 'keyword_a'})
    comp_df = df.loc[df.keyword != k].reset_index(drop=True)
    prime_df = prime_df.loc[prime_df.index.repeat(len(comp_df.index))].reset_index(drop=True)
    prime_df = pd.concat([prime_df, comp_df], axis=1)
    prime_df = prime_df.rename(columns = {"serp_string" : "serp_string_b", 'keyword': 'keyword_b', "serp_string_a" : "serp_string", 'keyword_a': 'keyword'})
    return prime_df

columns = ['keyword', 'serp_string', 'keyword_b', 'serp_string_b']
matched_serps = pd.DataFrame(columns=columns)
matched_serps = matched_serps.fillna(0)
queries = strung_serps.keyword.to_list()

for q in queries:
    temp_df = serps_align(q, strung_serps)
    matched_serps = matched_serps.append(temp_df)

matched_serps

Предоставленная выше информация отображает все пары ключевых слов и соответствующие им страницы результатов поисковой системы (SERP), что позволяет легко сравнивать строки SERP.

Функция serp_compare оценивает схожесть, проверяя соответствующие сайты и их расположение на страницах результатов поисковой системы (SERP).


import py_stringmatching as sm
ws_tok = sm.WhitespaceTokenizer()

# Only compare the top k_urls results 
def serps_similarity(serps_str1, serps_str2, k=15):
    denom = k+1
    norm = sum([2*(1/i - 1.0/(denom)) for i in range(1, denom)])
    #use to tokenize the URLs
    ws_tok = sm.WhitespaceTokenizer()
    #keep only first k URLs
    serps_1 = ws_tok.tokenize(serps_str1)[:k]
    serps_2 = ws_tok.tokenize(serps_str2)[:k]
    #get positions of matches 
    match = lambda a, b: [b.index(x)+1 if x in b else None for x in a]
    #positions intersections of form [(pos_1, pos_2), ...]
    pos_intersections = [(i+1,j) for i,j in enumerate(match(serps_1, serps_2)) if j is not None] 
    pos_in1_not_in2 = [i+1 for i,j in enumerate(match(serps_1, serps_2)) if j is None]
    pos_in2_not_in1 = [i+1 for i,j in enumerate(match(serps_2, serps_1)) if j is None]
    
    a_sum = sum([abs(1/i -1/j) for i,j in pos_intersections])
    b_sum = sum([abs(1/i -1/denom) for i in pos_in1_not_in2])
    c_sum = sum([abs(1/i -1/denom) for i in pos_in2_not_in1])

    intent_prime = a_sum + b_sum + c_sum
    intent_dist = 1 - (intent_prime/norm)
    return intent_dist

# Apply the function
matched_serps['si_simi'] = matched_serps.apply(lambda x: serps_similarity(x.serp_string, x.serp_string_b), axis=1)

# This is what you get
matched_serps[['keyword', 'keyword_b', 'si_simi']]

Теперь что сравнения выполнены, можно начать кластеризацию ключевых слов.

Мы будем рассматривать любые ключевые слова, у которых взвешенное сходство составляет 40% или более.


# group keywords by search intent
simi_lim = 0.4

# join search volume
keysv_df = serps_input[['keyword', 'search_volume']].drop_duplicates()
keysv_df.head()

# append topic vols
keywords_crossed_vols = serps_compared.merge(keysv_df, on = 'keyword', how = 'left')
keywords_crossed_vols = keywords_crossed_vols.rename(columns = {'keyword': 'topic', 'keyword_b': 'keyword',
                                                                'search_volume': 'topic_volume'})

# sim si_simi
keywords_crossed_vols.sort_values('topic_volume', ascending = False)

# strip NAN
keywords_filtered_nonnan = keywords_crossed_vols.dropna()
keywords_filtered_nonnan

We now have the potential topic name, keywords SERP similarity, and search volumes of each.

Вы заметите, что ключевое слово и keyword_b были переименованы в тему и ключевое слово соответственно.

Теперь мы будем перебирать столбцы в датафрейме, используя технику лямбда.

Использование лямбда-функций может повысить эффективность прохода по строкам в Pandas DataFrame, поскольку преобразует каждую строку в список вместо использования метода .iterrows(), который проходит по индексу и значениям каждой строки отдельно.

Здесь идёт:


queries_in_df = list(set(matched_serps['keyword'].to_list()))
topic_groups = {}

def dict_key(dicto, keyo):
    return keyo in dicto

def dict_values(dicto, vala):
    return any(vala in val for val in dicto.values())

def what_key(dicto, vala):
    for k, v in dicto.items():
            if vala in v:
                return k

def find_topics(si, keyw, topc):
    if (si >= simi_lim):

        if (not dict_key(sim_topic_groups, keyw)) and (not dict_key(sim_topic_groups, topc)): 

            if (not dict_values(sim_topic_groups, keyw)) and (not dict_values(sim_topic_groups, topc)): 
                sim_topic_groups[keyw] = [keyw] 
                sim_topic_groups[keyw] = [topc] 
                if dict_key(non_sim_topic_groups, keyw):
                    non_sim_topic_groups.pop(keyw)
                if dict_key(non_sim_topic_groups, topc): 
                    non_sim_topic_groups.pop(topc)
            if (dict_values(sim_topic_groups, keyw)) and (not dict_values(sim_topic_groups, topc)): 
                d_key = what_key(sim_topic_groups, keyw)
                sim_topic_groups[d_key].append(topc)
                if dict_key(non_sim_topic_groups, keyw):
                    non_sim_topic_groups.pop(keyw)
                if dict_key(non_sim_topic_groups, topc): 
                    non_sim_topic_groups.pop(topc)
            if (not dict_values(sim_topic_groups, keyw)) and (dict_values(sim_topic_groups, topc)): 
                d_key = what_key(sim_topic_groups, topc)
                sim_topic_groups[d_key].append(keyw)
                if dict_key(non_sim_topic_groups, keyw):
                    non_sim_topic_groups.pop(keyw)
                if dict_key(non_sim_topic_groups, topc): 
                    non_sim_topic_groups.pop(topc) 

        elif (keyw in sim_topic_groups) and (not topc in sim_topic_groups): 
            sim_topic_groups[keyw].append(topc)
            sim_topic_groups[keyw].append(keyw)
            if keyw in non_sim_topic_groups:
                non_sim_topic_groups.pop(keyw)
            if topc in non_sim_topic_groups: 
                non_sim_topic_groups.pop(topc)
        elif (not keyw in sim_topic_groups) and (topc in sim_topic_groups):
            sim_topic_groups[topc].append(keyw)
            sim_topic_groups[topc].append(topc)
            if keyw in non_sim_topic_groups:
                non_sim_topic_groups.pop(keyw)
            if topc in non_sim_topic_groups: 
                non_sim_topic_groups.pop(topc)
        elif (keyw in sim_topic_groups) and (topc in sim_topic_groups):
            if len(sim_topic_groups[keyw]) > len(sim_topic_groups[topc]):
                sim_topic_groups[keyw].append(topc) 
                [sim_topic_groups[keyw].append(x) for x in sim_topic_groups.get(topc)] 
                sim_topic_groups.pop(topc)

        elif len(sim_topic_groups[keyw]) < len(sim_topic_groups[topc]):
            sim_topic_groups[topc].append(keyw) 
            [sim_topic_groups[topc].append(x) for x in sim_topic_groups.get(keyw)]
            sim_topic_groups.pop(keyw) 
        elif len(sim_topic_groups[keyw]) == len(sim_topic_groups[topc]):
            if sim_topic_groups[keyw] == topc and sim_topic_groups[topc] == keyw:
            sim_topic_groups.pop(keyw)

    elif si < simi_lim:
  
        if (not dict_key(non_sim_topic_groups, keyw)) and (not dict_key(sim_topic_groups, keyw)) and (not dict_values(sim_topic_groups,keyw)): 
            non_sim_topic_groups[keyw] = [keyw]
        if (not dict_key(non_sim_topic_groups, topc)) and (not dict_key(sim_topic_groups, topc)) and (not dict_values(sim_topic_groups,topc)): 
            non_sim_topic_groups[topc] = [topc]

Вот организованный словарь ключевых слов, разделенных по их предназначению для поисковых запросов: 1. Информационные ключевые слова 2. Навигационные ключевые слова 3. Транзакционные ключевые слова 4. Коммерческие исследовательские ключевые слова 5. Словарные ключевые слова 6. Бренды-ключевые слова 7. Сравнительные ключевые слова 8. Модифицирующие ключевые слова 9. Отрицательные ключевые слова 10. Географические ключевые слова Каждая группа представляет категорию ключевых слов, которые пользователи могут использовать при поиске конкретного вида информации или действий в интернете.

{1: ['fixed rate isa',
  'isa rates',
  'isa interest rates',
  'best isa rates',
  'cash isa',
  'cash isa rates'],
 2: ['child savings account', 'kids savings account'],
 3: ['savings account',
  'savings account interest rate',
  'savings rates',
  'fixed rate savings',
  'easy access savings',
  'fixed rate bonds',
  'online savings account',
  'easy access savings account',
  'savings accounts uk'],
 4: ['isa account', 'isa', 'isa savings']}

Давайте поместим это в DataFrame.


topic_groups_lst = []

for k, l in topic_groups_numbered.items():
    for v in l:
        topic_groups_lst.append([k, v])

topic_groups_dictdf = pd.DataFrame(topic_groups_lst, columns=['topic_group_no', 'keyword'])
                                
topic_groups_dictdf

Как специалист по цифровому маркетингу могу с уверенностью сказать, что предоставленные категории поискового намерения предлагают надежное представление ключевых слов, охватываемых каждой группой. Обычно именно такого уровня точности стремятся достичь специалисты по поисковой оптимизации (SEO).

Подход, даже с задействованием нескольких ключевых слов, очевидно имеет потенциал для расширения, чтобы вместить гораздо больше (потенциально намного более тысяч).

Активация выходов для улучшения вашего поиска

Абсолютно верно, мы можем углубиться ещё дальше с помощью нейронных сетей для улучшения процесса кластеризации, обеспечивая более высокий уровень точности на основе ранжирования контента. Некоторые существующие коммерческие решения уже внедрили такой подход для лучшего группирования и именования кластеров.

Сейчас с этим результатом вы можете:

  • Встройте это в свои собственные системы дашбордов SEO, чтобы сделать тренды и отчеты по SEO более значимыми.
  • Создавайте более эффективные платные поисковые кампании, структурируя аккаунты Google Рекламы по поисковому намерению для повышения качества оценок.
  • Объедините дублирующиеся URL-адреса поиска товаров
  • Структурируйте таксономию сайта по продаже товаров в соответствии с намерением поиска, а не обычным каталогом продуктов.

Безусловно, буду рад обсудить любые дополнительные приложения, которые вы считаете значимыми и не были затронуты до сих пор.

Кстати, ваше исследование ключевых слов SEO стало немного более эффективным, точным и быстрым!

Скачайте полный код здесь для собственного использования.

Смотрите также

2025-05-19 15:39

От поиска к открытию: почему SEO должно выйти за рамки поисковой выдачи

Ландшафт поиска претерпевает самое большое изменение за поколение.

Как специалист по SEO с многолетним опытом за плечами, могу подтвердить изменения в страницах результатов поисковых систем (SERPs). Если вспомнить золотые времена, станет ясно, что значительная часть этого ценного пространства постепенно была занята платной рекламой, фирменными продуктами и обогащенными сниппетами.

В настоящее время мы обсуждаем самое стремительное преобразование всех времен: Анализ искусственного интеллекта (а также платформ больших языковых моделей, которые работают с помощью поисковых запросов).

В прошлом месяце на конференции BrightonSEO я исследовал, как это развитие заставляет нас переосмыслить определение SEO и подчеркнуть важность обнаруживаемости (discoverability), а не просто ранжирования.

Восход эпохи нулевого клика уже не просто позади — теперь он считается.

Уже давно мы изучаем рост запросов без кликов. Однако кажется, что в последние годы эта тенденция стала значительно более выраженной.

https://www.searchenginejournal.com/wp-json/sscats/v2/tk/Middle_Post_Text

В последнее время я искала ‘обучение ребенка чтению часов’, но мне пришлось пройти мимо многочисленных спонсируемых материалов, рекомендаций от Google и обзоров на туториалы по искусственному интеллекту перед тем, как наконец-то пролистать три полные страницы результатов поисковой системы (SERP).

Поисковые и исследовательские сервисы, такие как Google, стремятся удерживать пользователей внутри своих экосистем, что подразумевает, что традиционные метрики поисковой оптимизации, включая коэффициент кликабельности (CTR), могут постепенно терять свою значимость для специалистов по SEO.

От систем ответов к системам помощников

LLM (большие языковые модели) изменили не только представление результатов пользователям, но также переменили традиционный поисковый процесс, который первоначально разрабатывался для браузеров, на более сложный и многоэтапный процесс. Собственные страницы результатов поисковой системы (SERP) могут быть недостаточно адаптированы к этому новому потоку информации.

Процесс исследования превращается в единый непрерывный обмен.

С развитием технологий все быстрее растет беспокойство по поводу того, что наше врожденное любопытство и способности к личным исследованиям могут постепенно уменьшаться или вовсе исчезнуть ввиду стремительного темпа развития технологий.

Ассистенты и крупные языковые модели теперь выступают в роли посредников, связывая наш контент с людьми, которые могут стать нашими будущими зрителями или читателями – фактически выполняя роль наших «потенциальных новых зрителей» или «новоприбывшей аудитории».

Они анализируют, обрабатывают, понимают и впоследствии генерируют информацию, которая определяет с кем или чем они общаются или взаимодействуют.

Структурированные данные по-прежнему критически важны, поскольку контекст, прозрачность и отношение имеют значение больше чем когда-либо.

Испытания отличаются, но также и похожи

Как специалист по поисковой оптимизации (SEO), наши проблемы с этим новым поведением влияют на то, как мы выполняем свою работу и составляем отчеты.

На самом деле, многие — это просто старые проблемы в новых блестящих обертках.

  • Атрибуция — настоящая путаница: С помощью обзовов ИИ и LLM синтезируется контент, поэтому сложнее, чем когда-либо определить источник трафика или понять, получает ли сайт его вообще. Есть инструменты для мониторинга, но мы только на начальных этапах стандартизации этих инструментов. Даже Google заявила, что не планирует добавлять аналитику по AIO в Search Console.
  • Трафик фрагментируется (снова). Мы уже наблюдали это на платформах социальных сетей в начале, где открытие происходило за пределами органической выдачи поисковых систем. Сейчас процесс открытия происходит повсюду одновременно. В связи с усложнением атрибуции это становится ещё более серьёзной задачей.
  • Бюджеты находятся под пристальным вниманием из-за страха, неуверенности и сомнений: родная страница результатов поиска слишком сильно меняется, поэтому некоторые могут предположить, что в оптимизации для поисковых систем стало меньше пользы (или вовсе нет) (неправда!)

Сдвиг показателей успеха

1. Наши текущие показатели производительности постепенно теряют актуальность. Эпоха метрик, управляемых тщеславием, подходит к концу.
2. Эффективность метрик, на которые мы полагались, снижается. Время для эгоцентричных метрик почти прошло.
3. Дни измерения успеха традиционными метриками угасают. Конец метрик, мотивированных эгоизмом, близок.
4. Мы наблюдаем упадок полезности наших текущих методов измерений. Фаза метрик, основанных на личной славе, скоро закончится.
5. Актуальность метрик, которые мы использовали, уменьшается. Дни метрик, ориентированных на самозначимость, сочтены.
6. Наши текущие критерии успеха становятся менее эффективными. Эпоха тщеславно-управляемых измерений приближается к своему завершению.
7. Полезность наших текущих ключевых показателей эффективности снижается. Время для метрик, основанных на личной гордости, подходит к концу.
8. Эффективность применяемых нами метрик уменьшается. Фаза эгоцентричных метрик близится к завершению.
9. Текущие методы измерения успеха теряют свою ценность. Конец измерений, управляемых тщеславием, близок.
10. Релевантность наших текущих показателей производительности снижается. Время для метрик, ориентированных на личный интерес, подходит к концу.

Так же как наши жизненные трудности имеют общую нить, но различаются в деталях, так и процесс переосмысления того, что считается успехом для каждого человека.

Что вы можете сделать об этом?

Данные можно комбинировать, но личности — нет. Именно поэтому нам важно помочь «ассистенту» учитывать вашу уникальную точку зрения при составлении данных и генерации ответа, обеспечивая таким образом ваше надлежащее представление в итоговом выводе.

  • Придерживайтесь основ: Никогда не пренебрегайте основами SEO.
  • Третьестороннее мнение все более важно, поэтому убедитесь, что оно сохраняется и управляется должным образом для поддержания положительного отношения к бренду.
  • Примите структурированные данные: даже если некоторые утверждают, что понимание сущностей для LLM становится менее важным, структурированные данные сейчас используются внутри основных LLM для вывода структурированных данных в ответах, предоставляя им установленный и стандартизированный способ понимания вашего контента.
  • Информируйте заинтересованных лиц: Переведите разговор с ранжирования и кликов на доступность и присутствие бренда. Неоценимые дни брендированных не связанных упоминаний внезапно обрели большую ценность, чем ‘приобретение X после незабрендовых анкорных текстовых ссылок pcm’.
  • Экспериментируйте со своим контентом: Пробуйте новые методы создания и продвижения контента за пределами традиционных слов. Видео здесь полезно не только для людей, но также и для LLM, которые теперь «смотрят» и понимают их, чтобы лучше отвечать.
  • Создавайте полезный и уникальный контент: к тому же, не производите его ради самого производства.

Llm’s txt.: Потенциал стать новым стандартом

Следите за развитием новых стандартов, таких как LLMS.txt, способ, которым некоторые модифицируют и улучшают обработку контента с помощью больших языковых моделей (LLM), выходя за рамки традиционных методов, предоставляемых robots.txt и XML sitemaps.

Хотя другие могут иметь сомнения относительно этого стандарта, я считаю, что это ценная инициатива для немедленной реализации, и ясно вижу её долгосрочные преимущества.

Заключение: примите открытость и новые метрики

СЕО не умерло. Оно расширяется, но со скоростью, которой мы раньше не сталкивались.

Мера того, насколько легко пользователи могут найти продукт или услугу, известная как обнаруживаемость (discoverability), становится всё более важной для достижения успеха. Однако необходимо признать, что она не является безупречной, особенно по мере постоянного развития методов поиска.

Это уже не только о ‘достижении высоких позиций’, это стало критически важно быть ясным, заметным, надежным и легко обнаруживаемым на всех важных платформах и цифровых ассистентах. Фокус переместился за пределы простого ‘высокого рейтинга’. Теперь критически важным является быть понятным, доступным, заслуживающим доверия и поисковым по всем релевантным платформам и AI-ассистентам.

Примите изменения и адаптируйтесь к ним, так как они будут продолжаться некоторое время.

Смотрите также

2025-05-19 14:39

Нарушает ли AI Обзор от Google Свои Правила по Спаму?

Эксперты по поисковому маркетингу утверждают, что последние обзоры искусственного интеллекта от Google могут превратиться в ту самую проблему, о которой предупреждают издателей их руководящие принципы: материалы, скопированные без свежих идей или стоящих дополнений, потенциально снижая посещаемость оригинального контента.

Переписывание текста и плагиат

Ранее Google показывал Featured Snippets, которые были краткими выдержками из уже существующего контента и на которые пользователи могли кликнуть для продолжения чтения. Однако сейчас AI Overview (AIO) от Google идет еще дальше: он предоставляет полные статьи в качестве ответов на запросы пользователей и иногда даже учитывает потенциальные последующие вопросы.

Вместо генерации оригинальных ответов, этот ИИ берет и повторно использует ранее опубликованный контент, что считается плагиатом, если студент делает это, выдавая чужую работу за свою без добавления новых идей или перспектив.

https://www.searchenginejournal.com/wp-json/sscats/v2/tk/Middle_Post_Text

Искусственный интеллект, такой как система ИИ от Google, не обладает способностью генерировать оригинальные идеи или проводить независимый анализ. Это означает, что у него отсутствует добавленная стоимость, и в академическом контексте его поведение можно рассматривать как плагиат.

Пример переработанного контента

Недавно Лили Рей поделилась статьей на LinkedIn о проблеме спама в поисковых результатах Google, основанных на искусственном интеллекте (AIO). В своем материале она рассказывает о том, как специалисты по SEO нашли способ вставлять ответы внутри AIO, используя отсутствие проверок верификации из-за автоматизированного характера этих ответов.

Позже Лили поискала свою статью на Гугл, возможно, чтобы проверить ее позицию. Вместо этого она обнаружила удивительное: Гугл не только ранжировал ее работу, но и казалось полностью переписал ее, предоставив ответ практически такой же подробный, как и изначальная статья.

Она переписала все, что я написал в посте длиной практически как и мое первоначальное сообщение.

Она переписала всё, что я написал в посте, который по сути такой же длинный, как мой оригинальный пост. ️ — Лили Рэй 😏 (@lilyraynyc) 18 мая 2025

Переписал ли Гугл всю статью?

Метод, используемый поисковыми системами и большими языковыми моделями (LLM), для анализа контента включает определение вопросов, на которые этот контент отвечает. На основании найденных ответов контент маркируется, что упрощает процесс соответствия запроса пользователя с подходящей веб-страницей.

Я проверил содержание Лили и ответы AIO. Интересно, что каждый из них ответил приблизительно на одинаковое количество вопросов, с небольшими отклонениями: Лили ответила на 13 вопросов, а AIO справился с 12.

Обе статьи ответили на пять аналогичных вопросов.

  • Проблема спама в обзорах AI
  • Манипуляция и эксплуатация ИИ. Обзоры AIO: как спамеры манипулируют обзорами ИИ для продвижения некачественного контента? Лили Рэй: какие новые формы спама поисковой оптимизации появились в ответ на обзоры ИИ?
  • Опасения по поводу AIO в сообществе SEO
    AIO: Какие опасения испытывают профессионалы SEO относительно влияния обзоров искусственного интеллекта?
    Лили Рэй: Почему возможность манипулировать обзорами ИИ вызывает такие беспокойства?
  • Отклонение от принципов E-E-A-T (Опыт, Экспертность, Авторитетность и Надежность) AIO: Какого рода контент приоритизируется Google в ответ на эти проблемы? Lily Ray: Как качество информации в обзорах AI сравнивается с традиционным акцентом Google на E-E-A-T и достоверном контенте?

Плагиат Более Одного Документа

В то время как аргумент Лили предполагает, что Google должен делать больше, отдел искусственного интеллекта (AIO) компании перефразировал материал из другого источника, чтобы показать, что Google активно работает над мерами борьбы со спамом. Особо стоит отметить, что AIO Google предоставляет ответы на пять дополнительных вопросов, которые взяты с другой веб-страницы.

Похоже, что ответ искусственного интеллекта Google на конкретный запрос «спам в обзоре ИИ от Google» выглядит как объединение или потенциально повторное использование информации из двух разных источников для ответа на вопрос Лили Рэй.

выводы (из доклада или обсуждения), итоги (мероприятия)

  • Искусственный интеллект Google Overview использует веб-контент для создания длинных материалов, которым не хватает оригинальности или добавленной ценности.
  • Искусственный интеллект от Google в ответах повторяет содержание статей, которые он суммирует, копируя структуру и идеи для ответа на идентичные вопросы.
  • Искусственный интеллект Google AIO может не соответствовать собственным стандартам качества компании, используя переписанное содержимое способом, напоминающим определение спама компанией Google.

Надежность и аутентичность ответов AIO могут не соответствовать стандартам опыта, экспертизы, авторитетности и доверия, установленным Google. Это связано с тем, что у искусственного интеллекта нет личного опыта, и отсутствует встроенный механизм для проверки фактов.

Как профессионал в области цифрового маркетинга, я нахожу тревожным то обстоятельство, что некоторые люди воспринимают Google’s ИИО (Ответы в сниппетах) как плагиат контента из-за перефразирования ранее опубликованных статей. Эти переформулировки часто не содержат оригинального анализа или уникальных инсайтов, что создает впечатление простого копирования и повторного использования существующей работы без добавления ценности. Такое отношение ставит AIO рядом с типичным образом спамера в глазах многих пользователей.

Смотрите также

2025-05-19 12:39