Google объясняет, как ранжироваться в AI-поиске.

Недавно Джон Мюллер и Дэнни Салливан из Google обсудили, как ИИ меняет результаты поиска и что владельцам веб-сайтов и создателям контента необходимо сделать, чтобы оставаться видимыми. Дэнни Салливан конкретно предупредил, что контент, который очень общий и легко находится в других местах, может столкнуться с трудностями в будущем.

На чём создателям стоит сосредоточиться в отношении ИИ

Джон Мюллер недавно попросил Дэнни Салливана совета о том, как издателям следует адаптироваться к ИИ. Дэнни ответил, уточнив типы контента, который следует избегать создания, и какой контент издателям *следует* уделять приоритетное внимание вместо этого.

Он уточнил, что создателям следует избегать создания ‘товарного контента’. Это относится к онлайн-материалам, которые просто повторяют широко известную информацию, не предлагая каких-либо оригинальных идей, специализированных знаний или уникальной точки зрения. Это контент, который легко дублируется и не выделяется на фоне того, что уже доступно на других веб-сайтах, потому что он очень общий.

Комментарии Дэнни Салливана о базовом, неоригинальном контенте сразу же заставили меня вспомнить сайты с рецептами. Они часто кажутся разработанными так, чтобы быть максимально общими – от их простого дизайна и понятных биографий авторов до самих рецептов. Я считаю, что его суть в том, что все онлайн-креаторы должны задуматься о том, что делает их контент уникальным и достойным внимания.

Дэнни проиллюстрировал свою точку зрения о «commodity content», описав, как некоторые веб-сайты пишут длинные введения, прежде чем просто указать время начала Super Bowl. Эта практика напомнила мне веб-сайты с рецептами, которые часто поступают так же — предоставляют много дополнительного текста, прежде чем дойти до самого рецепта.

«Итак, на чем, по вашему мнению, создателям веб-контента следует сосредоточиться в наши дни, учитывая весь AI

«Ключевой момент – действительно сосредоточиться на изначальном аспекте. Не на чём-то новом.

Речь не о том, чтобы открывать совершенно новую информацию, а скорее о том, чтобы изменить наше представление о том, что важно. В сети существует множество базового фактического контента, и системы искусственного интеллекта (AI) на самом деле становятся довольно хорошими в его предоставлении.

И это не происходит из какого-либо типа вещей.

Все знают, что хорошая шутка может вызвать смех. И каждый год в Америке проводится огромное мероприятие под названием Super Bowl – это наше крупнейшее спортивное событие.

…Но никто, кажется, не может запомнить, во сколько оно начинается.

Многие веб-сайты публиковали статьи, задающие один и тот же вопрос: «Во сколько начинается Super Bowl в 2011 году?» Эти статьи часто были очень длинными и подробными.

В конечном итоге у нас будет достаточно информации из наших источников данных, чтобы уверенно заявить что-то вроде: «Super Bowl начнется в 3:30».

Большинство людей согласятся, что это положительно. И спасибо, что сообщили мне, когда начнется Super Bowl.

Это была не супер оригинальная информация.»

Контент-маркетинг — не ваша сильная сторона.

Затем Дэнни задумался о контенте, который люди создают сейчас. Он призвал их подумать, не слишком ли обща их работа, и сосредоточиться на обмене более оригинальными и уникальными идеями.

Как цифровой маркетолог, я усвоил, что простое предложение тех же базовых продуктов или услуг, что и у всех остальных, не является выигрышной стратегией. Это не то место, где вы действительно выделитесь или займете прочную позицию на рынке. Вам нужно предложить что-то уникальное, чтобы действительно добиться успеха.

И я беспокоюсь, что некоторые люди, даже с традиционным SEO, слишком много на нем сосредотачиваются.

Я обнаружил несколько веб-сайтов, которые получают много посетителей, ищущих помощь с популярными онлайн-играми словами.

Я буду ежедневно предоставлять ответ на ваш вопрос, что хорошо. Однако, ситуация может измениться – будь то обновление системы, информация из внешнего источника или что-то еще – и тогда ответ может потребоваться изменить.

Привнесите свой опыт в AI

Как SEO-эксперт, я говорю людям, обеспокоенным контентом, сгенерированным ИИ, действительно сосредоточиться на демонстрации *вашего* уникального опыта и знаний. Речь идет не только о написании текстов – подумайте о том, как вы можете привнести свою индивидуальность в видео и подкасты. Подлинность – это ключ к тому, чтобы выделиться из контента, созданного ИИ.

«Ваш оригинальный голос – это то, что можете предоставить только вы. Это ваша особая точка зрения.

Когда мы объясняем, что видим как наибольший потенциал человека, мы сосредотачиваемся на его основных сильных сторонах – именно это мы считаем самым важным.

Двигаясь вперед, вам следует уже сейчас сосредоточиться на создании оригинального контента, и именно на этом должны быть сосредоточены ваши усилия.

Основываясь на этом, люди действительно ищут контент, который кажется искренним и личным. Часто это принимает форму видео или подкастов.

Как мы заметили в наших первоначальных результатах поиска, добавление более привлекательного и интерактивного контента – такого как публикации в социальных сетях и впечатления – было эффективным. Это не означает, что следует преуменьшать ценность экспертных мнений, а скорее признавать, что люди тянутся к этому типу контента.

Часто хочется услышать о личном опыте человека в сочетании с анализом эксперта.

Если вы делитесь своей экспертизой посредством письма – например, в обзорах или анализе – рассмотрите возможность расширения до видео- и подкаст-форматов. Они предлагают дополнительные способы охватить аудиторию.

Эти моменты не специфичны для AI, но, переосмысливая свой подход в этом новом ландшафте, стоит их помнить.

Джон Мюллер подтвердил, что наличие отличительного и оригинального голоса в вашем контенте — это хороший способ сделать его заметным. Дэнни Салливан подчеркнул, что возможность быть найденным в поисковой системе на базе ИИ заключается в том, чтобы быть другим, а не просто подстраивать контент под определенный формат. Ключ в том, чтобы разработать узнаваемый стиль и точку зрения, которые помогут вам выделиться. Поскольку поиск на базе ИИ по-прежнему полагается на традиционные методы поиска, создание уникального, высококачественного контента, который люди оценят и которым поделятся, имеет важное значение для победы над конкурентами.

Послушайте отрывок примерно на двенадцатой минуте:

Смотрите также

2025-12-18 13:40

Функции личного контекста AI Mode от Google «Предстоят»

Хотя Google впервые намекнул на функцию под названием «personal context» для своего AI Mode семь месяцев назад на мероприятии Google I/O, Ник Фокс, старший вице-президент Google, подтвердил, что она все еще находится в разработке и пока недоступна для публики.

Во время беседы в подкасте AI Inside, Фокс объяснил, что задержка была связана не с возможностями ИИ, а скорее с завершением работы над продуктом и получением необходимых одобрений. Он просто заявил: «It’s still coming soon.»

Что Google пообещала на I/O

Во время мероприятия Google I/O, Google объявила, что её AI Mode вскоре сможет использовать ваши предыдущие поиски для предоставления более точных ответов. Они также поделились информацией о том, что у вас будет возможность связать другие приложения Google, такие как Gmail, и контролировать, как работают эти подключения.

Целью было позволить Google запоминать детали из ваших предыдущих взаимодействий, чтобы вам не приходилось повторяться в каждом новом запросе.

По срокам, Фокс сказал, что некоторые внутренние тесты проводятся, но он не сообщил дату публичного релиза:

Мы сейчас тестируем это внутри компании и устраняем все недочеты. Мы скоро запустим это для публики, так что следите за новостями!

Вы можете услышать вопрос и ответ Fox в видео ниже, начиная примерно с 37-й минуты:

Рост режима ИИ продолжается без личного контекста.

Даже не адаптируя опыт к индивидуальным пользователям, Fox подчеркнул, как быстро набирает популярность AI Mode, отметив, что сейчас им ежедневно пользуются 75 миллионов человек по всему миру.

Мы можем увидеть изменение в том, как люди задают вопросы в интернете. Согласно Fox, люди начинают использовать гораздо более длинные и подробные вопросы – часто включая личный контекст, такой как ‘Я’ или ‘мне’.

Вместо того, чтобы позволять ИИ угадывать, что вам нужно, люди теперь напрямую включают всю необходимую справочную информацию в свои запросы, согласно Fox.

«Люди пытаются правильно сформулировать запрос»

Это важно, потому что функция «персональный контекст» была разработана для уменьшения этих ручных усилий.

Географические закономерности в принятии (adoption).

Кажется, режим ИИ набирает популярность с разной скоростью в зависимости от местоположения, при этом в регионах с ранним доступом наблюдается наибольшее использование. В настоящее время США являются наиболее устоявшимся рынком, поскольку у людей там было больше времени, чтобы интегрировать эту функцию в свою повседневную жизнь.

Он также отметил растущую популярность этой функции в странах с менее развитым доступом к интернету, в частности упомянув Индию, Бразилию и Индонезию. Он объяснил, что AI Mode может более эффективно связывать информацию из разных языков и местоположений, чем стандартные поисковые системы, что особенно полезно в этих регионах.

Он добавил, что более молодые пользователи быстрее осваивают этот опыт в разных регионах.

Обновления по отношениям с издателями

В интервью также содержались обновления, связанные с тем, как AI Mode связывает людей с контентом издателя.

Fox также обсудил улучшения в том, как AI-опыт связывается с другой информацией, например, отображение большего количества ссылок и предоставление дополнительных деталей вокруг них.

Мы улучшаем наш AI-опыт, добавляя больше ссылок.

Google сотрудничает с более чем 3000 предприятий и организаций в более чем 50 странах.

Технические обновления

Fox рассказал об изменениях в продукте и инфраструктуре, которые теперь обеспечивают работу AI Mode и связанных с ним возможностей.

Google запустила Gemini 3 Pro непосредственно в результатах поиска в первый же день, что стало первым случаем, когда они предоставили передовую AI-модель в Поиске сразу после выпуска.

Он также говорил о «генеративных макетах», что означает, что модель может автоматически создавать UI-код на основе конкретных запросов.

Он объяснил, что для поддержания скорости система использует маршрутизацию моделей – направляет простые вопросы к быстрым, базовым моделям и сохраняет более мощные модели для сложных задач.

Почему это важно

Функция искусственного интеллекта, которая настраивает ответы, используя информацию из вашей учетной записи Gmail, все еще находится в разработке и пока не имеет подтвержденной даты выхода.

На данный момент кажется, что люди обходят ограничения, предоставляя больше деталей в своих запросах. Если эта тенденция продолжится, веб-сайты могут начать сосредотачиваться на ответах на очень конкретные и подробные вопросы.

Заглядывая в будущее

Хотя режим ИИ новый, и им пользуются 75 миллионов человек каждый день, он достиг масштаба, позволяющего нам отслеживать, насколько хорошо он принимается.

Смотрите также

2025-12-18 01:40

Google Gemini 3 Flash становится стандартным в приложении Gemini и режиме AI.

Google запустила Gemini 3 Flash, более быструю версию своей модели Gemini 3. Теперь это стандартная модель, используемая в приложении Gemini.

Gemini 3 Flash также разворачивается по всему миру как модель по умолчанию для режима ИИ в Поиске.

Это обновление последовало за недавним запуском Google Gemini 3, который включал в себя предварительный просмотр Gemini 3 Pro и новую, более мощную функцию рассуждения под названием Gemini 3 Deep Think.

Что нового

Gemini 3 Flash теперь является стандартной моделью в приложении Gemini для всех пользователей по всему миру, предоставляя всем бесплатный доступ к его улучшенным функциям.

В Поиске Gemini 3 Flash начинает развертывание по всему миру в качестве модели по умолчанию для Режима ИИ, начиная с сегодняшнего дня.

Разработчики теперь могут опробовать Gemini 3 Flash через предварительный просмотр Gemini API. Доступ предоставляется через несколько инструментов, включая Google AI Studio, Google Antigravity, Vertex AI, Gemini Enterprise, Gemini CLI и Android Studio.

Ценообразование

Согласно ценам API Gemini от Google, использование Gemini 3 Flash стоит $0.50 за каждый миллион входных токенов и $3.00 за каждый миллион выходных токенов.

Gemini 2.5 Flash стоит $0.30 за каждый миллион входных токенов и $2.50 за каждый миллион выходных токенов, как показано на странице цен.

Согласно Google, Gemini 3 Flash более эффективен, чем Gemini 2.5 Pro, используя примерно на 30% меньше токенов для общих задач. Независимые тесты также показывают, что он в три раза быстрее предыдущей версии.

Почему это важно

Модель языка по умолчанию в приложении Gemini изменилась, и пользователи получили доступ к ней бесплатно.

Gemini 3 Flash — это новое, более доступное решение для разработчиков, создающих приложения с использованием Gemini, особенно для задач, требующих обработки большого объема информации.

Заглядывая в будущее

Gemini 3 Flash теперь выходит. И в США вы также можете получить доступ к Gemini 3 Pro через Поиск, используя меню AI Mode.

Смотрите также

2025-12-17 20:39

Google Обновляет JavaScript SEO Документы с Каноническими Рекомендациями

Это обновление документации включает полезные советы о том, как исправить проблемы, вызванные тем, что один и тот же контент доступен по нескольким веб-адресам, в соответствии с рекомендованными практиками Google.

Что нового

Последняя документация объясняет проблему с таймингом для JavaScript-сайтов. Google может обработать канонический URL страницы дважды, что может вызвать проблемы.

Google проверяет предпочтительную версию вашей страницы дважды: сначала, когда он изначально видит базовый код, а затем снова после полной загрузки страницы с помощью JavaScript. Если предпочтительная версия, указанная в базовом коде, отличается от той, которая установлена JavaScript, Google может запутаться, какую версию показывать в результатах поиска.

Наша документация говорит о том, что вы можете использовать JavaScript для установки канонических тегов, но обычно это не лучший подход. Хотя Google может прочитать канонический URL, установленный с помощью JavaScript, ошибки в его реализации могут привести к проблемам с индексацией вашей страницы.

Использование более одного канонического тега на странице или изменение канонического тега по мере загрузки страницы может привести к тому, что поисковые системы проиндексируют неверную версию вашего контента.

Лучшие практики

Google рекомендует две лучшие практики в зависимости от архитектуры вашего сайта.

Как вебмастер, я обнаружил, что лучший способ обрабатывать канонические URL-адреса с контентом, отрисованным с помощью JavaScript, — это установить их непосредственно в начальном HTML, который получает Google. Таким образом, Google получает чёткий сигнал о предпочтительном URL-адресе *до того*, как JavaScript даже запустится и изменит страницу. Это обеспечивает согласованность и помогает Google правильно понимать ваш контент как изначально, так и после отрисовки.

Как SEO-эксперт, я всегда советую клиентам, что если вам нужен JavaScript для динамического задания другого канонического URL, отличного от изначально указанного в вашем HTML, лучше всего *удалить* исходный канонический тег. Почему? Потому что наличие обоих может запутать Google. Google использует две основные фазы – сканирование и рендеринг – для понимания вашего сайта, и конфликтующие канонические теги между этими фазами могут отправлять смешанные сигналы, что в конечном итоге повредит вашему рейтингу. Позволить JavaScript обрабатывать канонический тег с самого начала позволяет избежать этой потенциальной проблемы.

Документация также рекомендует разработчикам убедиться, что на каждой странице присутствует только один канонический тег после полной загрузки.

Почему это важно

Этот совет охватывает небольшую, но важную деталь, которую часто упускают из виду при работе с веб-сайтами, использующими JavaScript для создания своего контента.

Как цифровой маркетолог, я узнал, что часто есть разница между тем, что Google *видит* при первоначальном сканировании кода страницы (HTML) и тем, что он в конечном итоге *рендерит* после выполнения JavaScript. Эта задержка иногда может вызывать конфликтующие сигналы о том, какая версия страницы является ‘официальной’ – канонической версией – и это то, о чем нам нужно знать и управлять.

Если вы создаёте веб-сайт с использованием JavaScript-фреймворков, таких как React, Vue или Angular – которые управляют такими вещами, как навигация по страницам и макет на браузере пользователя – важно проверить, как настроены ваши канонические теги. Убедитесь, что ваш сервер изначально включает правильный канонический тег, а затем проверьте, изменяет ли ваш JavaScript-код или добавляет ли дополнительные теги.

Часто решение заключается в том, чтобы убедиться, что серверная и клиентская версии предпочитаемого URL (канонического URL) вашего сайта совпадают и последовательно сообщают Google, какую версию показывать в результатах поиска.

Заглядывая в будущее

Это обновление просто более чётко объясняет существующее поведение. Оно не изменяет способ обработки канонических тегов Google.

Если в отчёте об индексации страниц Search Console отображается неверный канонический URL, убедитесь, что тег canonical в коде вашего сайта соответствует тому, что видит Google при рендеринге страницы. Инструмент проверки URL позволяет легко сравнить исходный код и отрендеренную версию, чтобы найти любые различия в настройке тега canonical.

Смотрите также

2025-12-17 18:09

Факты об авторитете меняют всё в построении ссылок.

Многие люди думают о доверии как о чём-то, что распространяется с одного веб-сайта на другой просто через ссылки, независимо от того, о чём эти сайты. Однако я покажу, что доверие на самом деле не распространяется таким образом. Это означает, что традиционные стратегии линкбилдинга, которые часто сосредоточены на получении ссылок из любого надежного источника, могут быть ошибочными.

Как эксперт по поиску, я на самом деле первым начал изучать, как ‘link distance’ может ранжировать веб-сайты еще в 2018 году. Идея довольно крутая: мы начинаем с небольшой группы высокодоверенных сайтов – то, что я называю ‘seed set’. Затем мы отображаем, как ссылки распространяются от этих начальных сайтов. Веб-сайты, которые находятся всего в нескольких ссылках от ‘seed set’, как правило, надежны, в то время как те, которые находятся дальше и дальше от него, с большей вероятностью будут менее надежными. По сути, это способ оценить достоверность на основе ‘digital proximity’ к известным хорошим источникам.

Google по-прежнему использует ссылки для определения позиций в поисковой выдаче. Веб-сайты, хорошо связанные с авторитетными и надежными источниками, с большей вероятностью займут более высокие позиции, в то время как те, которые далеки от этих основных сайтов, могут быть расценены как спам.

Давайте вернемся к идее ‘trust‘ как сигнала ранжирования. Важно понимать, что ‘trust’ не передается напрямую с одного веб-сайта на другой. На самом деле, это вообще не фактор. Что определяет ‘надежность’ сайта, так это то, насколько тесно он связан с набором оригинальных, высоконадежных веб-сайтов – измеряется количеством ссылок между ними. По сути, веб-сайты не ‘передают’ доверие; их позиция в сети ссылок определяет их воспринимаемую надежность.

Надёжность является ключевым фактором в стандартах Google для высококачественных веб-сайтов, известных как E-E-A-T. Однако, доверие — это не то, что веб-сайт может просто унаследовать от другого; его необходимо заслужить напрямую.

Старая идея о том, что надёжные веб-сайты передают доверие через ссылки, больше не является точной. Сейчас действительно важно то, насколько тесно веб-сайт связан с признанными, надёжными сайтами *в той же предметной области*. Вместо того, чтобы сосредотачиваться на получении ссылок с известных веб-сайтов, важнее рассматривать линкбилдинг как вопрос релевантности. Это означает, что владельцам веб-сайтов следует уделять приоритетное внимание получению ссылок, которые демонстрируют чёткую связь с их темой, а не гоняться за впечатляющими ссылками, которые на самом деле не помогают их позициям в поисковой выдаче.

Почему Показатели Авторитетности Третьих Сторон Неточны

Один из интересных моментов в ранжировании веб-сайтов по степени их взаимосвязанности заключается в том, что сайты, освещающие схожие темы, как правило, группируются в сети. Популярные темы получают много ссылок, в то время как нишевые или специализированные области часто не получают. Это означает, что даже если сайт с меньшим количеством ссылок тесно связан с вашей отправной точкой, он не получит большого значения, потому что не является частью большой, хорошо связанной сети ссылок.

Как SEO-эксперт, я часто вижу веб-сайты с небольшим количеством внешних ссылок – то, что я называю «вертикалями с низкой ссылочной массой» – включенные в первоначальную структуру сайта. Эти сайты, естественно, показывают более низкие баллы, когда мы смотрим на традиционные метрики «авторитетности». Вот почему: большинство этих метрик по-прежнему полагаются на очень старую систему, аналогичную исходному алгоритму PageRank, разработанному еще в 1998 году. PageRank по сути подсчитывал, сколько ссылок указывало *на* веб-сайт. Хотя в то время это было новаторским, срок действия патента истек много лет назад, и, откровенно говоря, простое подсчитывание ссылок больше не является надежным показателем авторитетности. Это немного похоже на то, как судить книгу по обложке – это не рассказывает всю историю.

Метод seed set не учитывает количество ссылок, ведущих на сайт. Вместо этого он рассчитывает, насколько тесно сайт связан с источниками, считающимися надёжными. Эта связь основана на доверии, а не на количестве ссылок, которые имеют эти надёжные источники – а доверие – это то, что люди определяют, основываясь на своих собственных мнениях.

Я считаю, что полагаться на традиционные сторонние метрики ссылок больше неэффективно. Эти метрики основаны на устаревшей системе, подобной оригинальному PageRank, вместо того, чтобы учитывать прямую связь сайта с авторитетными и надежными источниками.

Это означает, что многие ценные веб-сайты упускаются из виду при построении ссылок, потому что устаревшие метрики недооценивают их ценность, особенно в отраслях, где обмен ссылками не является распространенным явлением, несмотря на то, что они тесно связаны с надежными источниками.

Важность связей между соседними локациями.

Веб-сайты обычно ссылаются на другие ресурсы, освещающие схожие темы. Это означает, что мы можем начать с фокусировки на конкретных темах – некоторые из этих тем очень популярны и получают много ссылок, в то время как другие более нишевые и имеют меньше связей с широкой сетью. По сути, некоторые темы хорошо связаны, а другие более изолированы.

Как цифровой маркетолог, я часто использую алгоритмы ранжирования по расстоянию до ссылки, чтобы оценить релевантность веб-сайта на основе его связей. Инструменты, такие как Trust Flow и Topical Trust Flow от Majestic, являются отличными примерами. Они начинаются с основы высокодостоверных веб-сайтов, а затем измеряют ‘поток’ доверия. Мне особенно нравится Topical Trust Flow, потому что он идет на шаг дальше и разбивает этот показатель релевантности по конкретным темам, давая мне четкое представление о том, насколько авторитетен сайт в определенной нише.

Я не обязательно говорю о том, что вам *следует* использовать именно эту меру, хотя я считаю, что на данный момент это наиболее эффективный вариант. Что я *действительно* говорю, так это то, что мы не должны рассматривать надёжность как нечто, что просто передаётся с одного веб-сайта на другой через ссылки.

Когда вы начинаете задумываться о том, насколько тесно связаны различные веб-страницы в рамках определенной темы, становится ясно, почему ссылка с хорошо известного, заслуживающего доверия веб-сайта не всегда ценна. Я видел это на собственном опыте – до того, как поисковые системы стали учитывать, насколько релевантен сайт-источник теме, любая ссылка имела вес. Теперь, и уже довольно долгое время, релевантность является ключевым фактором.

Основные выводы здесь таковы:

  1. Контрпродуктивно преследовать так называемые «высокоавторитетные» ссылки из тематических вертикалей, которые сильно отличаются от тематики сайта, для которого вы пытаетесь получить ссылку.
  2. Это означает, что важнее получать ссылки с сайтов, которые соответствуют нужной тематике или контексту, точно соответствующему теме, с веб-сайта, находящегося в смежной тематической категории.

Веб-сайты, такие как The Washington Post, не считаются частью индустрии восстановления кредитной истории. Ссылка с крупного новостного сайта, такого как The New York Times, не значительно повысит надёжность сайта по восстановлению кредитной истории. Это связано с тем, что доверие измеряется *внутри* конкретной отрасли. Мы смотрим только на то, насколько тесно связаны ссылки друг с другом, а не на источник самой ссылки. Важна связь внутри ниши, а не происхождение ссылки.

Разумно ожидать, что несвязанные веб-сайты не будут подтверждать надежность друг друга, особенно при определении надежности первоначальных исходных веб-сайтов.

Захваты

  • Доверие – это не то, что передается по ссылкам
    Алгоритмы ранжирования по расстоянию ссылок не имеют отношения к «доверию». Они лишь измеряют, насколько сайт близок к доверенному исходному набору в теме.
  • Расстояние ссылки важнее, чем ее объем
    Системы ранжирования, основанные на расстоянии ссылок, оценивают близость к доверенным исходным сайтам, а не количество входящих ссылок на сайте.
  • Релевантность определяется тематическим окружением ссылок
    Веб-сайты естественным образом группируются по темам, и ценность ссылок, скорее всего, оценивается внутри этих тематических кластеров, а не по всей сети. Нерелевантная ссылка все еще может иметь небольшую ценность, но нерелевантные ссылки перестали работать почти двадцать лет назад.
  • Сторонние показатели авторитетности не соответствуют современным системам ссылочного ранжирования
    Некоторые сторонние метрики основаны на устаревшем подсчете ссылок в стиле Page Rank и не учитывают расстояние исходного набора и тематический контекст.
  • Вертикали с низким уровнем ссылок недооцениваются оптимизаторами
    Целые ниши, которые слабо связаны между собой, могут по-прежнему находиться рядом с доверенными исходными наборами, но при этом кажутся слабыми по сторонним показателям, из-за чего их упускают из виду в сборщиках ссылок.
  • Релевантность перевешивает воспринимаемую силу ссылки
    Ссылки с известных, но тематически нерелевантных сайтов, скорее всего, не принесут никакой пользы по сравнению со ссылками с близкородственных или смежных тематических сайтов.

Сегодняшние поисковые системы сосредотачиваются на том, насколько веб-сайт соответствует определенной теме, а не просто подсчитывают ссылки или ищут ссылки с известных сайтов. Они оценивают, насколько тесно сайт связан с авторитетными, заслуживающими доверия источниками *в пределах своей области знаний*. Это означает, что ссылки с небольших специализированных веб-сайтов могут быть столь же или даже более ценными, чем ссылки с популярных сайтов, посвященных различным темам.

Понимание этого поможет вам создавать более качественные ссылки, отдавая приоритет веб-сайтам, которые действительно связаны с вашим контентом, что может улучшить ваш рейтинг в поиске. Это более эффективный подход, чем просто сосредоточиться на старых показателях, которые больше не позволяют точно измерить ценность веб-сайта.

Смотрите также

2025-12-17 17:40