
TL;DR
- Search Console имеет довольно серьезные ограничения, когда речь идет о хранилище, анонимизированных и неполных данных, а также об ограничениях API.
- Вы можете обойти многие из этих ограничений и заставить GSC работать намного усерднее, настроив гораздо больше свойств на уровне подпапки.
- Вы можете иметь до 1 000 объектов в вашем аккаунте Search Console. Не ограничивайтесь одним объектом уровня домена.
- Все это позволяет значительно улучшить индексацию, запросы и анализ на уровне страниц. Все это бесплатно. Особенно если вы используете ограничение в 2000 URL-адресов на объект недвижимости при индексации через API.

Это особенно полезно для крупных веб-сайтов, особенно для тех, у которых много разделов и много существующего контента. Хотя это не ограничивается издательскими компаниями, это также может быть чрезвычайно ценно для интернет-магазинов и других предприятий электронной коммерции.
https://www.searchenginejournal.com/wp-json/sscats/v2/tk/Middle_Post_Text
Я и оно любим все большие и неуклюжие сайты одинаково.
Что такое ресурс в Search Console?
Свойство Search Console представляет собой версию вашего веб-сайта – например, домен, раздел в рамках более крупного сайта или конкретный адрес – которым вы подтверждаете свое владение.
Даже если вы только что настроили свойство на уровне домена в Google Search Console, вы все равно можете использовать все его полезные функции. Это включает в себя данные о кликах и показах, о том, как Google индексирует ваш сайт, и подробную статистику сканирования – которую можно найти только в свойствах на уровне домена. Однако есть некоторые значительные ограничения, о которых вам нужно знать.
- 1 000 строк данных запросов и на уровне страниц.
- Лимит в 2 000 URL API для анализа уровня индексации каждый день.
- Пример собранных ключевых слов (и маскировка конфиденциальности).
- Отсутствуют данные (в некоторых случаях 70% или более).
- 16 месяцев данных.
Хотя Google Search Console хранит полные данные только в течение 16 месяцев и использует выборку ключевых слов, вы можете извлечь из неё гораздо больше пользы, экспортировав свои данные в BigQuery или используя инструменты, упомянутые ниже. Правильная настройка и использование свойств в Google Search Console также является ключевым фактором для улучшения вашего опыта.
Вы можете подтвердить владение своим веб-сайтом, используя несколько методов, таких как DNS-записи, HTML-тег, загрузку файла или код отслеживания Google Analytics. После того, как вы подтвердили основной домен, вы можете легко добавить любые поддомены или подпапки в качестве отдельных свойств.
Отчёт о статистике сканирования – отличный инструмент для поиска и устранения проблем, таких как неожиданное увеличение URL-параметров или проблемы, возникающие из-за несанкционированных поддоменов. Это особенно полезно для больших веб-сайтов, где разные команды могут внедрять изменения без надлежащей коммуникации, что приводит к проблемам, которые вы обнаруживаете только позже.
Обычно, в любом случае. Иногда людям просто нужна хорошая куча. Говоря метафорически, конечно.
В то время как поддомены обычно рассматриваются поисковыми системами как отдельные веб-сайты и получают свой собственный бюджет сканирования, Google иногда может группировать их вместе при определении того, какую часть вашего сайта сканировать. Это означает, что они не всегда рассматриваются как полностью отдельные сущности.
Гэри Ильес объясняет, что Google обычно назначает бюджет сканирования на основе имени хоста веб-сайта. Это означает, что если у вас есть поддомены с разными именами хостов, чем у вашего основного веб-сайта, они обычно получат свой собственный отдельный бюджет сканирования.
Как определить подходящие объекты недвижимости?
Как SEO-специалисту, вам необходимо глубокое понимание веб-сайта, над которым вы работаете. Зачастую это несложно, поскольку многие люди не так хорошо знакомы с технической стороной вещей. Хотя ключевую информацию обычно можно найти в Google Search Console, более крупные и сложные веб-сайты требуют более тщательного анализа.
Используйте инструменты, такие как Screaming Frog, Sitebulb или Deepcrawl, чтобы составить карту структуры вашего веб-сайта, если вы с ней еще не знакомы. Начните с фокусировки на ваших самых важных страницах – тех, которые генерируют наибольший доход и трафик – а затем расширяйтесь оттуда.
Некоторые Альтернативы GSC
Прежде чем продолжить, я хочу указать на несколько отличных альтернатив GSC. Эти варианты не имеют тех же ограничений и могут лучше соответствовать вашим потребностям.
SEO Stack
SEO Stack — это мощный инструмент, который позволяет анализировать ваши данные без каких-либо ограничений. Он разработан как разговорный интерфейс, позволяющий задавать вопросы и получать прямые сведения. Например, вы можете легко найти контент, который стабильно хорошо работает в сентябре, или выявить страницы с конкретными проблемами с производительностью.
https://www.youtube.com/watch?v=1Mmo2o1QQPI
Дэниел часто говорит об отслеживании поисковых запросов, и это отличный способ увидеть, как ваш веб-сайт или контент работает в поисковой выдаче. Если вы поднимаетесь в топ-3 или топ-10, это положительный знак. Но если вы опускаетесь вниз, а затем улучшаетесь дальше по странице результатов, это признак проблем.
SEO Получает
SEO Gets — отличный и доступный вариант, особенно в сравнении с SEO Stack. Он также позволяет анализировать больше контента без обычных ограничений, встречающихся в Search Console, что делает ваш анализ более быстрым и простым.
Организуйте ключевые слова и страницы в группы для отслеживания объёма поиска и анализа кликов и показов для каждого контентного кластера. SEO Gets предлагает особенно мощную бесплатную версию своего инструмента, которая часто считается лучшей из доступных.
Indexing Insight
Indexing Insight, подробный инструмент, созданный Adam Gent, невероятно полезен для веб-сайтов с большим количеством контента. Проверки всего 2 000 URL в день недостаточно для крупных предприятий. Однако, используя продуманный подход, учитывающий множество аспектов каждого сайта, вы можете эффективно проверять 2 000 URL для *каждого* раздела или функции.
Этот инструмент невероятно полезен, особенно для крупных, старых веб-сайтов. Он использует чёткие визуальные данные – например, показывает, что URL-адреса, не обновлённые в течение 130 дней, могут исчезнуть из результатов поиска – чтобы помочь вам быть в курсе событий.
Все эти инструменты мгновенно улучшают ваш опыт работы с Search Console.
Преимущества многокомпонентного подхода
Один из лучших способов решить эти проблемы — увеличить количество управляемых вами объектов. Это связано с тем, что это не требует дополнительных затрат и помогает обойти ограничения, встроенные в API.
Люди любят бесплатные вещи. Я помню, как видел новый магазинчик, предлагавший бесплатные банки измельчённых помидоров в рамках своей открытия – это было странно раздавать! Ещё более странным было то, что там стояла очередь людей, ждущих, чтобы их получить, и я даже присоединился к ней.
Спагетти Болоньезе никогда не казались такими сладкими.
Гранулярное отслеживание индексации
Отчёт об охвате индекса в Search Console невероятно полезен, но его может быть немного сложно понять. Знание разницы между страницами, которые Google ‘Просмотрел – Сейчас не проиндексированы’ и ‘Обнаружено – Сейчас не проиндексировано’, может помочь вам оптимизировать ваш веб-сайт. Эта оптимизация может привести к лучшему использованию ресурсов сканирования Google и более сильной внутренней ссылочной структуре.
Если страница отображается как ‘Просканировано – В настоящее время не проиндексировано’, это означает, что Google обнаружил страницу, но еще не добавил ее в результаты поиска. Это не всегда требует немедленного внимания, но может указывать на то, что страница не имеет высокого качества. Убедитесь, что ваш контент полезен и что вы ссылаетесь на свои самые важные страницы изнутри вашего веб-сайта.
Если Google показывает ‘Обнаружено – В настоящее время не проиндексировано’, это означает, что они нашли вашу веб-страницу, но еще не полностью изучили ее и не добавили в результаты поиска. Это может быть связано с тем, что Google не считает ваш контент достаточно ценным, внутренние ссылки вашего веб-сайта не выделяют наиболее важные страницы или существует техническая проблема с вашим сервером.
Понимание того, как Google индексирует веб-сайты, является ключевым. Это не простой процесс ‘да’ или ‘нет’. Google использует многоуровневую систему – часто обновляемый контент хранится на более быстрых и мощных серверах, а менее важный контент – на более доступных, как объяснил Gary Illyes.
Вместо того, чтобы просто копировать то, что делают другие сайты, сосредоточьтесь на принятии разумных решений, основанных на ценности вашего сайта, объеме, который Google может просканировать, эффективности его работы, нагрузке на серверы и использовании JavaScript.
Адам написал очень хороший гайд о типах не проиндексированных страниц в GSC и что они означают здесь.
Просто чтобы вы знали, инструмент, который показывает, какие из наших страниц проиндексированы, не всегда актуален. Я думаю, он обновляется несколько раз в неделю, но я не совсем помню, где это услышал, поэтому это может быть не совсем точно.
Крупные новостные организации могут заметить, что многие из их статей отображаются как ‘Просканировано – В данный момент не проиндексировано’ в результатах поиска. Однако, проверка конкретного URL часто показывает, что он *действительно* проиндексирован – просто существует временная задержка между тем, когда Google находит контент, и когда он полностью появляется в поиске.
Индексирование API Масштабируемость
По мере роста веб-сайтов до больших размеров – например, тех, которые содержат более 500 000 страниц во вложенных папках – ограничение API в 2 000 URL-адресов становится реальной проблемой. Это сильно затрудняет выявление страниц, которые исключены из индексации.
Но когда вы настраиваете несколько свойств, вы можете эффективно масштабироваться.
Ограничение в 2 000 URL касается только каждого отдельного веб-сайта или объекта. Если у вас есть один основной веб-сайт и 20 подпапок, выступающих в качестве отдельных объектов, вы можете отправлять до 42 000 URL в день. Отправка большего количества URL обычно приводит к лучшим результатам.
И API имеет некоторые другие преимущества:
- Вы можете запросить индексацию или удаление конкретных URL-адресов (опять же, лимит 2 000 в день).
- Вы можете отправлять уведомления в режиме реального времени при запуске или удалении страниц. Подумайте об этом как о Bing’s IndexNow.
- Ускорьте индексацию контента, чувствительного ко времени.
Но это не гарантирует индексацию. Это запрос, а не команда.
Сначала вам нужно будет активировать API через Google Cloud Console. Есть руководство быстрого старта, которое может помочь, хотя оно может быть немного разочаровывающим. Тем не менее, это стоит усилий. После этого вам понадобится Python-скрипт для обработки отправки запросов к API и отслеживания того, как вы его используете, а также для понимания получаемых ответов (например, успешный, перенаправление или сообщения об ошибках).
Для более детального анализа вы можете интегрировать это с вашей информацией о публикациях, чтобы определить, сколько времени требуется для индексации страниц в определенных разделах. И всегда хорошая идея приложить дополнительные усилия к вашему анализу.
Это сильный индикатор того, какие из ваших подпапок Google считает наиболее важными. Это помогает вам определить категории, которые показывают хорошие результаты, по сравнению с теми, которые нуждаются в улучшении.
Гранулярные данные по кликам и показам
Если у вас крупный веб-сайт, крайне важно использовать BigQuery для ваших поисковых данных. Google Search Console хранит только 1000 строк информации о запросах и URL-адресах, и всего лишь в течение 16 месяцев. Хотя 16 месяцев кажутся приличным сроком, вы быстро осознаете ценность долгосрочного хранения данных в BigQuery через год или два.
Анализ годовых паттернов кликов и планирование мероприятий может быть невероятно стрессовым – одной лишь заботой можно было бы легко покрыть расходы на отпуск вашего стоматолога!
Самый простой способ получить более детальный обзор ваших поисковых данных — настроить несколько аккаунтов Google Search Console. Хотя у каждого аккаунта есть ограничения на количество запросов и URL-адресов, которые он может отображать, наличие нескольких аккаунтов эффективно увеличивает эти ограничения, предоставляя вам более полную картину.
Что насчет карт сайта?
Просто небольшое замечание: хотя карты сайта не гарантируют, что Google проиндексирует ваш контент, важно помнить, что индексация происходит, когда Google находит контент, полезный для людей. Сосредоточьтесь на создании полезного контента, а не только на отправке карт сайта.
Как SEO-эксперт, я всегда убеждаюсь, что мои клиенты понимают мощь новостных карт сайта. В современном быстро меняющемся цифровом мире оперативное индексирование вашего контента имеет решающее значение. Новостные карты сайта разработаны специально для этого – они позволяют Google точно знать, где найти ваши самые свежие статьи, гарантируя, что они будут обнаружены и ранжированы как можно скорее. Это простой шаг, который может иметь огромное значение!
В своей основе система полагается на Navboost, который анализирует хорошие и плохие клики, отдавая приоритет самым последним и длинным. Подумайте об этом как о ‘Клее’ – огромном журнале того, как пользователи взаимодействуют с контентом. Это помогает Google быстро ранжировать новую информацию и поддерживать актуальность результатов поиска. По сути, Google сохраняет контент в своём поисковом индексе, если пользователи считают его ценным.
После многих лет наблюдения за результатами поиска – и подтвержденного судебными делами и внутренними документами Google – мы понимаем, что сила веб-сайта, его долгосрочное влияние и то, как его страницы связаны друг с другом, имеют решающее значение. Однако, как только Google находит ваш сайт, *действительно* важным становится то, нравится ли людям ваш контент и взаимодействуют ли они с ним. Независимо от того, как хорошо вы пытаетесь организовать его с помощью карты сайта, вы не можете заставить людей любить скучный или плохо написанный материал.
И Индексы Sitemap?
Крупные веб-сайты часто используют так называемые индексы карты сайта. Представьте себе это как основной список всех ваших карт сайта – это необходимо, когда у веб-сайта более 50 000 страниц. Когда вы отправляете индекс карты сайта в Google Search Console, обязательно отправьте каждую отдельную карту сайта, которая включена в него.
Теперь вы можете проверить, какие из ваших страниц проиндексированы непосредственно из отчёта по карте сайта. Это особенно полезно, если у вас большой веб-сайт с множеством страниц, поскольку управление индексацией может быть сложным в масштабе.
Как и в случае с данными об имуществе, когда дело касается карт сайта, предоставление большего объема информации обычно является хорошей вещью.
Как вебмастер, я усвоил, что каждый документ в интернете получает уникальный DocID. Представьте это как внутренний профиль страницы – это место, где хранится много информации о том, насколько хорошо эта страница работает. Это включает в себя такие вещи, как количество людей, которые на нее нажимают, насколько качественный контент, насколько надежен источник, как часто мы ее сканируем и даже оценку для обнаружения спама. Все это учитывается, чтобы определить общую «популярность» и рейтинг страницы.
Как digital-маркетолог, я знаю, что поисковые системы хранят все, что считают важным для ранжирования страницы. Эта информация затем используется для построения их индекса и, в конечном итоге, для определения того, где страница появляется в результатах поиска.
Что мне делать дальше?
- Оцените вашу текущую настройку GSC – работает ли она достаточно усердно для вас?
- У вас есть доступ к свойству на уровне домена и отчёту о статистике сканирования?
- Вы уже разбили свой сайт на «объекты» в GSC?
- Если нет, просканируйте ваш сайт и определите подпапки, которые вы хотите добавить.
- Проверьте настройки вашей карты сайта. У вас есть только индекс карты сайта? Вы также добавили отдельные карты сайта в GSC?
- Рассмотрите возможность подключения ваших данных к BigQuery и хранения более 16 месяцев данных.
- Рассмотрите возможность подключения к API через Google Cloud Console.
- Оцените вышеперечисленные инструменты и посмотрите, добавят ли они ценности.
Search Console — ценный инструмент, особенно учитывая, что он бесплатный. Однако у него есть ограничения, и другие платные инструменты предлагают более продвинутые функции. Тем не менее, стоит максимально использовать его потенциал.
Смотрите также
2025-11-14 16:13