Вам не нужен файл robots.txt в корневом домене, говорит Google через @sejournal, @MattGSouthern

Как опытный эксперт по SEO с более чем десятилетним опытом работы, я своими глазами видел эволюцию веб-стандартов и лучших практик. Недавнее открытие аналитика Google Гэри Иллиеса о гибкости размещения файлов robots.txt является интригующим событием, которое бросает вызов давним убеждениям.


В недавнем сообщении на LinkedIn аналитик Google Гэри Иллес оспорил общепринятое мнение о местонахождении файлов robots.txt.

Уже давно считается, что файл robots.txt веб-сайта должен располагаться в корневом каталоге, например example.com/robots.txt.

Иллиес объяснил, что строгое соблюдение протокола исключения роботов (REP) не всегда необходимо. Он также поделился менее известной подробностью о REP.

Гибкость файла robots.txt

Файл robots.txt не обязательно должен находиться в корневом домене (example.com/robots.txt).

Иллиес предполагает, что допустимо иметь два отдельных файла robots.txt, расположенные в разных доменах: один на главном веб-сайте, а другой в сети доставки контента (CDN).

Иллиес предполагает, что веб-сайты могут централизованно управлять своими файлами robots.txt в сети доставки контента (CDN), сохраняя при этом контроль над сканированием своего основного сайта.

Как специалист по цифровому маркетингу, я часто сталкиваюсь с ситуациями, когда на веб-сайте имеется несколько файлов robots.txt. Например, в вашем примере есть два таких файла: один расположен по адресу , а другой по адресу . Чтобы уточнить, эти файлы содержат инструкции для веб-сканеров о том, к каким частям веб-сайта им разрешен доступ и индексирование. Наличие нескольких файлов robots.txt может привести к противоречивым инструкциям по сканированию для поисковых систем, что потенциально может повлиять на эффективность SEO вашего сайта. Обычно во избежание путаницы рекомендуется иметь один окончательный файл robots.txt в корневом каталоге вашего веб-сайта.

С помощью этого метода вы можете управлять унифицированным и всеобъемлющим файлом robots.txt в своей CDN (сети доставки контента) и вместо этого автоматически перенаправлять запросы роботов с вашего основного домена в этот основной файл.

https://www.linkedin.com/watch?v=feed/update/urn:li:share:7214278388029534209

Как эксперт по SEO, я бы перефразировал заметку Иллиеса следующим образом: при сканировании веб-сайта я гарантирую, что роботы поисковых систем соблюдают рекомендации, изложенные в RFC 9309. Эти боты будут следовать любым перенаправлениям и рассматривать целевой файл как robotxxt. файл для исходного домена.

Оглядываясь назад на 30 лет существования Robots.txt

В этом году исполняется 30 лет со дня принятия Протокола исключения роботов. Это событие подчеркивает продолжающуюся эволюцию веб-стандартов, о чем свидетельствует недавнее заявление Иллиеса.

Он поднимает вопрос, следует ли называть файл «robots.txt», подразумевая потенциальные изменения в подходе к выдаче инструкций по сканированию.

Как это может вам помочь

Следование указаниям Иллиеса может помочь вам в следующем:

  1. Централизованное управление. Объединив правила файла robots.txt в одном месте, вы можете поддерживать и обновлять директивы сканирования по всему своему веб-сайту.
  2. Улучшенная согласованность: единый источник достоверных данных для правил robots.txt снижает риск конфликта директив между вашим основным сайтом и CDN.
  3. Гибкость. Этот подход позволяет создавать более адаптируемые конфигурации, особенно для сайтов со сложной архитектурой или тех, которые используют несколько поддоменов и CDN.

Эффективное управление файлами robots.txt посредством упрощенного процесса может значительно улучшить администрирование веб-сайтов и инициативы по поисковой оптимизации (SEO).

Смотрите также

2024-07-04 16:44

Google показывает, как победить Reddit и крупные бренды через @sejournal, @martinibuster

Как профессионал в области цифрового маркетинга с многолетним опытом работы за плечами, я полностью согласен с точкой зрения Гэри Иллиеса на конкуренцию крупным брендам в поисковой выдаче. Доминирование Reddit и других крупных веб-сайтов — не новое явление, а, скорее, повторяющаяся тенденция в истории SEO.


В недавнем интервью на YouTube Гэри Иллис из Google поделился мыслями о стратегиях небольших веб-сайтов, стремящихся превзойти конкурентов, таких как Reddit, Amazon и другие крупные бренды, в результатах поисковых систем.

О доминировании крупных брендов

В мае Гэри Иллис из Google обратился к запросам, связанным с SEO, которые недостаточно освещались в отчетах. Один интригующий вопрос касался стратегий конкуренции с Reddit и крупными брендами.

Хотя может показаться, что Гэри ставит под сомнение доминирование Reddit, он не оспаривает эту точку зрения и не собирается концентрироваться на этом вопросе. Вместо этого его ответ вращается вокруг более широкой темы борьбы с крупными брендами на страницах результатов поисковых систем (SERP).

В современной поисковой среде, когда Reddit и крупные издатели занимают значительное место на страницах результатов поисковых систем (SERP) по многочисленным ключевым словам, как могут более мелкие бренды эффективно конкурировать? Вместо этого можно было бы сосредоточиться на ключевых словах с длинным хвостом.

История крупных брендов в поисковой выдаче

Ответ Гэри отражает всю историю доминирования крупных брендов на страницах результатов поисковых систем (SERP) и реакцию SEO-сообщества на это явление. About.com представлял собой универсальный веб-сайт, охватывающий широкий спектр тем, что делало его популярным источником информации. Он занимал значительную позицию в рейтинге по различным поисковым запросам, что напоминало текущий статус Википедии. Многие SEO-специалисты питали недовольство по поводу About.com из-за его высокой видимости в поисковой выдаче.

Как эксперт по SEO, я хотел бы взглянуть на ситуацию в перспективе продолжающихся дебатов об эффективности Reddit на страницах результатов поисковых систем (SERP). Важно помнить, что видимость бренда в верхней части результатов поиска не является постоянным состоянием. Эта ситуация является частью давней тенденции, когда различные бренды приходили и уходили в зависимости от меняющихся тенденций и алгоритмов.

До работы в Google у меня был опыт поисковой оптимизации (SEO) для крупных издательских компаний. Кроме того, в этой роли я управлял серверами и кластерами.

За свою карьеру опытного веб-мастера я неоднократно сталкивался с подобными запросами.

Теперь это Reddit. Тогда это был Amazon. За несколько лет до этого, я думаю, это был …About.com.

Практически каждые два года имя, которое вы там укажете, меняется».

Маленькие сайты могут конкурировать с крупными брендами

Как опытный веб-мастер, я хотел бы добавить, что эволюция SEO связана не только с крупными веб-сайтами, доминирующими в поисковой сфере. Фактически, многие успешные сайты начинались как мелкие игроки, сумевшие перехитрить более крупных конкурентов. Например, Reviewed.com, который позже был приобретен USA Today, начинался как скромный проект, которым руководил энтузиаст. Их глубоко укоренившаяся страсть к этой теме сыграла значительную роль в их конечном успехе в борьбе с более крупными брендами.

Гэри говорит, что нужно сделать две вещи:

  1. Подождите, пока кто-нибудь другой не придумает, как превзойти конкурентов, а затем скопируйте его.
  2. Или разберись сам и иди вперед

Но, конечно, если вы ждете, пока кто-то другой покажет вам, как это сделать, возможно, будет слишком поздно.

Люди умеют находить методы борьбы с теми, кто следует за вторым словом в этом запросе.

Как специалист по цифровому маркетингу, я понимаю, что конкуренция таких платформ, как Reddit, и крупных издателей, с точки зрения рейтинга в поисковых системах может показаться разочаровывающей. Однако вместо того, чтобы чувствовать себя побежденными, мы могли бы принять активный подход. Мы могли бы выбрать время и наблюдать, как другие экспериментируют с новыми стратегиями и методами. Со временем мы можем обнаружить ценную информацию или тенденции, которые помогут нам оставаться конкурентоспособными в постоянно меняющейся цифровой среде.

Возможно, вам стоит подумать над эффективными маркетинговыми методами, которые помогут вам приблизиться к позициям известных издателей, таких как Reddit и других.

Среди презентаций, которые произвели на меня глубокое впечатление, есть и презентация об эмпатическом маркетинге. Перефразируя, меня очень тронул разговор на эту тему. Что касается конкуренции в результатах поисковых систем, да, это возможно. Вам просто нужно определить уникальную точку зрения или подход, чтобы выделить ваш контент среди существующих результатов в топе.

Наблюдение Гэри звучит правдоподобно. Громоздкие корпорации часто увязают в бюрократической волоките и неохотно идут на риск. Я видел это своими глазами на примере таких компаний, как Reviewed.com, и я не одинок – основатель той же самой компании поделился подобным опытом.

Ключевые слова с длинным хвостом и другие стратегии

Эксперт: Затем Гэри перешел к обсуждению концепции ключевых слов с длинным хвостом. Вопреки распространенному мнению среди новых энтузиастов SEO, ключевые слова с длинным хвостом — это не просто длинные фразы, состоящие из нескольких слов. Вместо этого они представляют собой ключевые фразы, которые редко используются при поиске. Именно нечастое использование этих ключевых слов определяет их как длинные, а не количество слов.

Как профессионал в области цифрового маркетинга, я хотел бы оспорить эту точку зрения на ключевые слова с длинным хвостом. Вместо того, чтобы рассматривать их как остатки для небольших веб-сайтов, считайте их ценными жемчужинами, которые могут привлечь целевой и качественный трафик для вашего бизнеса. Ключевые слова с длинным хвостом отражают более конкретные поисковые запросы, а это означает, что цель этих поисков часто выше, чем общие общие термины. Сосредоточившись на ключевых словах с длинным хвостом в своей стратегии цифрового маркетинга, вы не только отличитесь от конкурентов, но и получите доступ к потенциальной аудитории, которая активно ищет то, что вы предлагаете.

Как опытный веб-мастер, я могу сказать вам по своим собственным наблюдениям, что мы не только сталкиваемся с проблемой работы с ключевыми словами с длинным хвостом, но и значительная часть новых ключевых слов с длинным хвостом появляется ежедневно. Очень важно идти в ногу со временем и соответствующим образом адаптироваться, чтобы поддерживать и оптимизировать работу нашего веб-сайта в поисковых системах.

Как опытный веб-мастер, внимательно следящий за тенденциями поисковых систем, я заметил значительный рост трафика по ключевым словам с длинным хвостом. Пользуясь этой возможностью, я предлагаю сосредоточиться на создании контента на основе этих конкретных фраз, чтобы привлечь на ваш сайт значительный объем органического трафика.

Одним из способов вызвать интерес и установить соответствие веб-сайта определенной теме является таргетинг на ключевые фразы с длинным хвостом. Ключевые слова с длинным хвостом, которые подразумевают более длинный и конкретный поиск, часто приносят меньше трафика, но более высокую вероятность привлечения заинтересованных посетителей. Эти пользователи сначала находят сайт по подробным запросам, а затем возвращаются за более широкими, популярными (главными) фразами.

Как опытный веб-мастер, я много раз сталкивался с этой проблемой на небольших сайтах: искушение сразу же нацелиться на ключевые слова с высоким трафиком, не продемонстрировав предварительно релевантность в длинном хвосте. Однако я обнаружил, что более постепенный подход является ключом к созданию успешного сайта.

Маленькие сайты могут быть мощными

Наблюдение Гэри справедливо: трафик «длинного хвоста» и возникающих тенденций может быть значительным. Небольшие предприятия должны учитывать, что более крупные партнеры сталкиваются со значительными препятствиями при принятии стратегических решений, включая бюрократическую волокиту и более высокие риски. Используйте свою гибкость и смелость как небольшой сайт; быстрые действия — ваше уникальное преимущество.

Основываясь на моем личном опыте и наблюдениях при работе с клиентами, небольшие сайты определенно могут превзойти позиции авторитетных, давно существующих веб-сайтов в результатах поисковых систем. В анналах поисковой оптимизации (SEO) полно случаев, когда менее известные сайты превосходили своих более медленных конкурентов.

Посмотрите, как Гэри отвечает на этот вопрос на 20-й минуте:

Смотрите также

2024-07-04 16:44

Google объясняет причины, по которым сканирование не индексируется через @sejournal, @martinibuster

Как опытный веб-мастер, я столкнулся с изрядной долей просканированных, но не проиндексированных ошибок в Google Search Console. Эта ошибка может озадачивать и расстраивать владельцев веб-сайтов, поскольку она указывает на то, что страница была просканирована Google, но не добавлена ​​в индекс поисковой системы.


В мае 2024 года во время интервью на конференции SERP Conf в Болгарии Гэри Иллис из Google объяснил несколько потенциальных причин проблемы, связанной с тем, что страницы сканируются, но не индексируются. Понимание этих причин может помочь в решении этой проблемы.

Интервью состоялось в мае, но его видео привлекло относительно мало внимания и не получило широкого просмотра. Мне об этом стало известно исключительно благодаря недавнему отказу Олеси Коробки (@Giridja) от интервью в Facebook.

Так что, хотя интервью состоялось в мае, информация по-прежнему актуальна и полезна.

Причина сканирования: в настоящее время не проиндексировано

«Недавно Google обнаружил и просканировал веб-страницу, но ее еще не добавили в индекс поисковой системы».

«Может ли страница, которая была просканирована поисковыми системами, но не проиндексирована, быть связана с тем, что ее содержимое слишком похоже на материал, который уже был проиндексирован?»

Значит, Google предполагает, что уже есть достаточно других вещей, а ваши вещи недостаточно уникальны?»

Согласно документации Google Search Console, это обоснованный вопрос о том, почему Google может просканировать веб-страницу, но решить не индексировать ее.

По мнению Гэри Иллиеса, одно из возможных объяснений заключается в том, что ваш веб-сайт может конкурировать с аналогичным контентом. Однако важно отметить, что могут быть и дополнительные факторы, способствующие возникновению этой проблемы.

«Да, это одна из возможных интерпретаций. «Сканировано, но не проиндексировано» означает, что страницы были исследованы поисковыми системами, но еще не попали в индекс поисковой системы. Было бы идеально разделить эту категорию на более мелкие группы, но сделать это сложно из-за внутренней организации данных.»

При обработке веб-страниц для индексирования существуют различные возможности, включая задачу выявления и исключения дублированного контента. Во время этого процесса мы сканируем страницу, чтобы определить, существует ли ее контент или очень ли он похож на существующую запись в нашей базе данных. Если это так, мы предпочитаем не добавлять новую страницу, поскольку предыдущая имеет более сильные индикаторы (лучшие сигналы).

Но да, но это может быть несколько вещей».

Общее качество сайта может повлиять на индексацию

Позже Гэри дал дополнительное объяснение тому, почему Google может сканировать веб-сайт, но отказаться от его индексации, подразумевая потенциальные проблемы с качеством сайта.

Качество вашего веб-сайта существенно влияет на количество URL-адресов, которые Google сканирует, но не индексирует. Большое количество таких URL-адресов может указывать на более серьезные проблемы с качеством.

Как опытный веб-мастер, я заметил значительный сдвиг в том, как поисковые системы индексируют URL-адреса веб-сайтов с февраля. Похоже, что по необъяснимым причинам эти системы взяли на себя задачу индексировать необычно большое количество URL-адресов сайта на основании предполагаемого изменения его характера или содержания.

Другие причины сканирования и неиндексации

Как эксперт по SEO, я хотел бы поделиться одним из возможных объяснений Гэри относительно того, почему URL-адреса могут сканироваться Google, но не индексироваться. Возможно, взгляд Google на ваш веб-сайт изменился или возникла техническая проблема.

Одним из возможных объяснений увеличения числа может быть то, что Google пересмотрела свою оценку сайта на основе новой информации.

Кроме того, возможно, на веб-сайте произошла ошибка, в результате которой одна и та же страница отображается по всем URL-адресам сайта. Это потенциально может объяснить, почему их число увеличивается.

Так что да, всего может быть много».

Вынос

Как опытный веб-мастер, я бы предложил перефразировать это так: «Гэри предложил ценную информацию о потенциальных причинах, по которым веб-страница не может быть проиндексирована Google после сканирования».

  • Контент аналогичен контенту, уже ранжированному на страницах результатов поисковых систем (SERP).
  • Точно такой же контент существует на другом сайте, который имеет лучшие сигналы.
  • Общие проблемы с качеством сайта
  • Технические неисправности

Иллиес не предоставил дальнейших объяснений о том, что другой сайт имеет более высокие сигналы, но я полагаю, что он имел в виду ситуации, когда один веб-сайт распространяет свой контент на другом сайте, а Google предпочитает ранжировать принимающий сайт, а не первоначального издателя.

Посмотрите, как Гэри отвечает на этот вопрос на 9-й минуте записанного интервью:

Смотрите также

2024-07-04 16:45

Обзоры искусственного интеллекта – как они повлияют на отрасль? Мы спрашиваем Педро Диаса через @sejournal, @theshelleywalsh

Как опытный веб-мастер, ставший свидетелем эволюции поисковых систем и тенденций цифрового маркетинга, я считаю, что обзоры ИИ представляют собой значительный сдвиг в нашем подходе к SEO и созданию контента. Хотя невозможно предсказать точное влияние на органический трафик и динамику отрасли, одно можно сказать наверняка: те, кто сможет адаптироваться и использовать эти изменения, будут процветать.


Как опытный веб-мастер, я заметил значительный ажиотаж вокруг генеративного ИИ, SGE (масштабируемых генеративных моделей) и обзоров ИИ с момента запуска ChatGPT еще в ноябре 2022 года. Этот новаторский инструмент предоставил генеративному ИИ удобный интерфейс, который сделало его доступным для масс.

После этого SEO-сообщество стало активно изучать потенциальные изменения в шаблонах поиска пользователей и их последствия для органических посещений веб-сайтов через поисковые системы.

Увидим ли мы катастрофическое падение количества кликов, которое оценивается?

Цель Google — интегрировать Gen AI в поиск, чтобы предоставлять более качественные ответы и, по его словам:

Как специалист по цифровому маркетингу, я понимаю, как важно иметь доступ к точной и актуальной информации в современной быстро меняющейся бизнес-среде. Иногда вы можете спешить, но вам необходимо всестороннее понимание конкретной темы или тенденции. Вот тут-то и пригодятся обзоры ИИ. Вместо того, чтобы тратить часы на сбор данных из различных источников, позвольте искусственному интеллекту сделать всю тяжелую работу за вас. Он быстро извлечет и обобщит важную информацию в удобном для восприятия формате, что позволит вам уверенно и эффективно принимать обоснованные решения.

Несмотря на продолжающиеся дебаты и различные точки зрения, фактические результаты могут быть довольно неопределенными: такие предложения, как бег с ножницами, принятие ванны с тостером и добавление клея в пиццу, чтобы сыр приклеился, являются примерами сомнительных советов.

Как опытный веб-мастер, я заметил некоторые изменения в использовании Google искусственного интеллекта (ИИ) и избранных фрагментов, также известных как нулевая позиция или окно ответа. Согласно недавним исследованиям, частота результатов, полученных с помощью ИИ, на страницах результатов поисковых систем (SERP) снизилась. Например, SE Ranking сообщил о падении с 64% до 8%, а BrightEdge указал, что Google перешел с отображения ИИ в 84% запросов всего на 15%. Эти изменения могут свидетельствовать о том, что Google экспериментирует с новыми способами предоставления результатов поиска и определения приоритета контента, созданного людьми. Тем не менее, очень важно следить за этими тенденциями и соответствующим образом адаптировать наши стратегии оптимизации.

Google продолжает внедрять инновации в представлении результатов искусственного интеллекта (ИИ) на страницах результатов поисковых систем (SERP). Самая последняя версия демонстрирует цитаты в верхней карусели.

За последнюю четверть века генеративный искусственный интеллект (Gen AI) произвел революцию в отраслях беспрецедентными темпами. Среди них поисковая оптимизация (SEO) испытывает значительные сбои. Две ключевые темы дебатов в сообществе SEO вращаются вокруг:

Я поговорил с бывшим сотрудником Google Педро Диасом и спросил его:

По вашему мнению, что вы думаете об обзорах ИИ, как они повлияют на отрасль и куда это движется?

Вот что сказал Педро:

«Ранее я отмечал, что Google стремится выступать в роли полезного компаньона, а не знающего библиотекаря».

Крайне важно понимать эту разницу в будущем, поскольку Google теперь возьмет на себя эту задачу, а не просто покажет нам путь с помощью своих ресурсов.

Продвижение вперед в производстве контента, который вызывает исключительно краткие ответы, может привести к тому, что мы устареем. Вместо этого важно переключить наше внимание на удовлетворение более глубоких желаний и потребностей нашей аудитории.

Google хочет быть личным помощником и обеспечивает это, предоставляя быстрые ответы.

Обзоры ИИ — это не более чем эволюция мгновенных ответов.

Владельцам сайтов, стремящимся получить быструю реакцию своей аудитории, важно также уделять время созданию комплексного контента. Поступая таким образом, вы можете направить своих читателей глубже в тему и в идеале предложить эксклюзивную подробную информацию, которую Google, возможно, не сможет легко сканировать или индексировать.

Сделав это, вы сможете защитить создаваемые вами контентные ресурсы.

Сейчас, как никогда, важно инвестировать время и усилия в создание активных сообществ заинтересованных пользователей, которые резонируют с индивидуальностью нашего бренда. Вместо того, чтобы просто предлагать базовые решения или быстрые ответы, давайте стремиться к значимому взаимодействию, которое способствует долгосрочным связям.

В настоящее время будущее развитие и особенности результатов поиска на основе искусственного интеллекта (AIO) остаются неопределенными из-за постоянных экспериментов Google с презентациями результатов поиска. По сути, они находятся в состоянии постоянной доработки, подобно живому бета-тестированию.

Но AIO будет вызывать различное поведение поиска.

Раньше при поисковой оптимизации (SEO) в результатах поиска появлялось только десять синих ссылок без немедленных ответов. Следовательно, пользователям необходимо было получить доступ к указанным веб-сайтам, чтобы получить решение своего запроса. В результате даже по простым вопросам сайт может получить значительный трафик.

Хотя эти типы посетителей имеют для вас минимальную ценность и на самом деле они не являются вашей клиентурой — вместо этого они представляют клиентскую базу Google.

Важно понимать разницу между запросами, требующими немедленных ответов, и запросами, требующими взаимодействия с нашим контентом. Наше внимание должно быть сосредоточено на улучшении пользовательского опыта в этих отдельных областях.

Подходит для людей, которые предпочитают углубляться в тему, а не довольствоваться сокращенной версией или кратким ответом. Эти люди выбирают захватывающий опыт чтения, который улучшает их понимание.

Подобно тому, как Интернет произвел революцию в музыкальной и издательской индустрии, мы находимся на пороге еще одной значительной трансформации. Адаптация будет иметь важное значение, а не необязательную роскошь – вопрос больше в том, когда, а не в том, произойдут ли эти изменения.

Как вы можете использовать AIO и Google для создания контент-сообщества?

Я спросил Педро:

Как эксперт по SEO, я бы рекомендовал сменить нашу точку зрения с захвата как можно большего количества органического трафика на стратегическое привлечение и вовлечение соответствующих пользователей с помощью оптимизированных стратегий поисковых систем. Этот подход предполагает использование возможностей Google для привлечения целевых посетителей в ваше онлайн-сообщество, обеспечивая более эффективное использование ресурсов и укрепляя связь с вашей аудиторией.

Для некоторых это будет большим изменением, так как же вы можете использовать Google для достижения этой цели?»

Педро ответил:

Определение объема «обнаружительного» трафика, который Google может перенаправить, будет различаться в зависимости от отрасли. Например, в таких секторах, как право и бухгалтерский учет, бизнес-модель вращается вокруг консультантов, которые обладают сложными знаниями и выступают в качестве хранителей отраслевых правил.

ИИ способен давать объяснения по сложным законодательным вопросам по различным темам. Однако в конкретных ситуациях или сложностях, требующих специальных знаний, рекомендуется вместо этого проконсультироваться со специалистом в этой области.

ИИ может предоставить вам более широкую информацию, но для детализации все равно потребуется эксперт.

Как опытные специалисты по SEO, мы можем создавать статьи на обширные темы, к которым может получить доступ искусственный интеллект. Впоследствии, для конкретных ситуаций и запросов, мы разработаем подробный контент для их решения.

Этот подробный контент хранится вдали от Google и искусственного интеллекта и доступен только вашему сообществу или клиентам.

Каждая компания должна решить, какие предложения предоставлять бесплатно, а какие — в качестве премиальных услуг.

ИИ стал переломным моментом, ликвидировав разрыв между обладателями знаний и экспертами, превратив их в ценные источники информации.

Золотая середина вот-вот исчезнет.

Отрасли сохранят опыт профессионалов благодаря их важным знаниям и вкладу в исследования. Остальные будут просто частью рабочей силы.

Некоторые пользователи могут запрашивать у ИИ только базовую информацию, в то время как другие ищут обширные знания.

Понимание своей роли в этой ситуации и разработка соответствующего плана являются ключом к эффективной адаптации.

Фундаментальные правила никогда не меняются

Вполне вероятно, что Google продолжит проводить дополнительные испытания до широкого внедрения искусственного интеллекта на страницах результатов поисковых систем (SERP) и поисковой оптимизации (SEO).

Во времена значительных перемен очень важно сосредоточить наше внимание на непоколебимых принципах, которые продолжают применяться. Эти основополагающие элементы вращаются вокруг того, как бренд устанавливает и поддерживает связь непосредственно со своими пользователями.

SEO-специалистам может потребоваться изменить свою точку зрения, сосредоточившись исключительно на привлечении трафика с помощью ключевых слов с большим объемом трафика. Более эффективным подходом было бы сконцентрироваться на разработке пользовательского опыта путем планирования их путешествий и стратегического включения взаимодействия с контентом по мере необходимости.

В прошлом использование одного ключевого слова большого объема для создания значительного трафика веб-сайта для повышения рейтинга было обычным явлением. Однако по мере нашего прогресса потребуется больше усилий, чтобы получить значительно меньше, но очень ценных кликов. Ожидается, что эти клики повысят актуальность и преимущества вашего присутствия в Интернете.

Спасибо Педро Диасу за то, что высказал свое мнение и был моим гостем на ИМХО.

Смотрите также

2024-07-04 16:46