WordPress выпускает версию 6.6.1 для исправления фатальных ошибок в версии 6.6

Как опытный веб-мастер с многолетним опытом работы за плечами, я видел немало обновлений WordPress и неожиданных проблем, которые они могут принести. Недавний выпуск WordPress 6.6 и последующее обновление 6.6.1 не стали исключением.


Через неделю после проблемного запуска версии 6.6 WordPress выпустил новую версию, направленную на решение семи серьезных проблем. Среди них две ошибки, которые привели к фатальным ошибкам, приводившим к сбоям на веб-сайте, и проблема, вызывающая ложные предупреждения плагинов безопасности. Кроме того, это обновление устраняет ряд других проблем, которые привели к нежелательным изменениям пользовательского интерфейса.

Фатальные ошибки в WordPress 6.6

Одним из моментов, который привлек значительное внимание в социальных сетях, была проблема, конкретно затрагивающая пользователей определенных конструкторов страниц и тем, таких как Divi. Хотя эта проблема не была серьезной по своим масштабам, она привела к заметному изменению внешнего вида веб-сайтов за счет введения подчеркиваний под всеми ссылками. Некоторые острословы в социальных сетях даже пошутили, что это было задумано, а не ошибка. Вообще говоря, подчеркивание под ссылками считается хорошей пользовательской практикой; однако они не важны для каждой ссылки, особенно в навигации верхнего уровня.

«Обновление до версии 6.6 привело к немедленному подчеркиванию всех ссылок на промежуточном сайте, оформленном в стиле divi».

Предложенное решение, казалось, решило проблему, но они по-прежнему не были уверены в ее основной причине.

«Есть ли среди вас какие-либо подозрения, что эта проблема с моим промежуточным сайтом сохраняется, или это может быть обновление версии WordPress или проблема с темой Divi, которая требует от них внимания? Кстати, если кто-нибудь знает о ‘Rparen ошибка’, с которой я сейчас сталкиваюсь, буду очень признателен за ваше мнение.»

Я столкнулся с ситуацией, когда Divi, несмотря на то, что проблема была на стороне WordPress, быстро выпустила экстренное решение для своих пользователей.

Позже WordPress признал ошибку и сообщил, что выпустит исправление в версии 6.6.1.

Другие проблемы, исправленные в версии 6.6.1

Фатальная ошибка

is_utf8_charset не определен при вызове из кода в compat.php (вызывает фатальную ошибку).

В сегменте кода, расположенном в строке 6.6, возникла проблема, приведшая к серьезной ошибке (фатальной). Этот сбой оставался незамеченным, пока о нем не сообщили пользователи WP Super Cache. В качестве временного решения WP Super Cache отключил всю функцию кэширования веб-сайта.

«Отключение кэша устраняет ошибку, но это далеко не идеально.»

Фатальная ошибка PHP

«Неустранимая ошибка PHP: неперехваченная ошибка: объект класса WP_Comment не удалось преобразовать в строку».

Как опытный веб-мастер, я столкнулся с проблемой в определенном сегменте кода WordPress, предназначенном для получения имени комментатора сообщения на основе идентификатора комментария. Однако в некоторых случаях эта часть программы получала более сложный фрагмент данных — объект WP_Comment — вместо простого числа. Это несоответствие привело к «фатальной ошибке» PHP, похожей на разочарование при попытке с силой вставить квадратный колышек в круглое отверстие.

Эта проблема была обнаружена кем-то, кто использовал конструктор веб-сайтов Divi.

Прочитайте полную информацию об обновлении WordPress 6.6.1:

WordPress 6.6.1 Сопровождающая версия

Смотрите также

2024-07-23 21:38

Google делится советами по улучшению SEO с помощью внутренних ссылок

Как опытный веб-мастер с многолетним практическим опытом оптимизации веб-сайтов для поисковых систем и улучшения пользовательского опыта, я полностью согласен с тремя рекомендациями Google по эффективным внутренним ссылкам.


В последнем выпуске видеоуроков «SEO Made Easy» Google делится тремя несложными советами о том, как эффективно использовать внутренние ссылки для повышения поисковой оптимизации вашего сайта.

Проще говоря, видео представителя Google Мартина Сплитта богато полезной информацией об улучшении архитектуры веб-сайта и оптимизации взаимодействия с пользователем.

Один из способов перефразировать это ясным и разговорным тоном: эффективно ссылаясь на наиболее важный контент вашего веб-сайта, вы облегчаете как пользователям, так и поисковым системам поиск и распознавание этих ключевых областей.

Кроме того, включив внутренние ссылки, вы можете помочь поисковым системам уловить связи между веб-страницами, потенциально улучшая их позиции в результатах поиска.

3 совета по внутренним ссылкам

Сплитт выделил три основных момента, касающихся эффективного использования внутренних ссылок:

  1. Навигация пользователя. Внутренние ссылки направляют пользователей по веб-сайту, помогая им находить соответствующий контент и понимать структуру сайта.
  2. Сканирование в поисковых системах: веб-сканер Google, Googlebot, использует внутренние ссылки для обнаружения новых страниц и понимания взаимосвязей между различными страницами на сайте.
  3. Рекомендации по использованию HTML. Правильное использование элементов HTML, особенно тега с атрибутом href, имеет важное значение для создания эффективных ссылок.

Важность содержательного анкорного текста

Одна из ключевых рекомендаций Google — использовать описательный и содержательный якорный текст для ссылок.

Разделение показало, что использование четкого и описательного якорного текста улучшает удобство просмотра пользователем, позволяя им быстро понять, куда каждая ссылка направит их на странице.

Он постановил:

И пользователи, и боты ценят описательный текст привязки. С левой стороны вы можете наблюдать, как это реализовано: каждая ссылка содержит четкие и ориентировочные слова в качестве якорного текста, что позволяет легко понять, куда вас направит каждая ссылка.

Посмотрите примеры, на которые он ссылается, на изображении ниже:

Сплитт продолжает:

«Справа от вас находится страница с неясным и неэффективным привязным текстом, что делает ее далеко не идеальной для пользователей, которые хотят быстро перемещаться и находить нужную ссылку.»

Балансировка количества ссылок

Хотя внутренние ссылки жизненно важны, Сплитт предостерегает от переусердствовать с ними.

При включении ссылок и организации связанного контента важно проявлять здравый смысл, чтобы предотвратить информационную перегрузку или потерю внимания читателя.

Технические соображения для ссылок

В ролике также были затронуты технические аспекты реализации ссылок.

Вместо использования нетрадиционных компонентов, таких как промежутки, элементы div или кнопки для создания ссылок, Splitt рекомендует придерживаться стандартной структуры HTML, соответствующим образом кодируя элементы, которые функционируют как ссылки.

В итоге

Вот ключевые выводы из видео Google о внутренних ссылках:

  • Внутренние ссылки — это фундаментальный аспект SEO и пользовательского опыта.
  • Сосредоточьтесь на создании осмысленного и описательного якорного текста для ссылок.
  • Используйте внутренние ссылки стратегически, чтобы направлять пользователей и поисковые системы на ваш сайт.
  • Сбалансируйте количество ссылок, чтобы не перегружать пользователей и не ослаблять фокус страницы.
  • При реализации ссылок придерживайтесь правильной структуры HTML.

Полное видео смотрите ниже:

Смотрите также

2024-07-23 19:08

Разработчики систем – как ИИ меняет работу SEO

Как человек, проработавший много лет в индустрии цифрового маркетинга, я не могу не испытывать чувства волнения и интриги по поводу перспективы использования ИИ для изучения новых навыков и улучшения своей работы в качестве SEO-специалиста. Мне всегда хотелось глубже погрузиться в языки программирования, такие как Python и R, но из-за требований повседневной работы и других обязанностей это никогда не было приоритетом.


ИИ — это технология терраформирования. Экосистема контента и SEO претерпевает масштабные структурные изменения.

Финансовые выгоды, получаемые от лицензионных соглашений между разработчиками и издателями LLM (Large Language Model), указывают на то, что созданный человеком контент имеет большую ценность в контексте обучения LLM по сравнению с его полезностью для конечных потребителей.

Издатели сталкиваются с трудностями при получении доходов от цифровых подписок, однако они получают существенные преимущества, предоставляя большие объемы данных, используемых в учебных целях.

Многие контент-платформы, сайты социальных сетей, компании, предлагающие программное обеспечение как услугу, и потребительские приложения интегрируют искусственный интеллект (ИИ) в свои предложения. Вот несколько примеров:

  • Spotify DJ (плейлист, созданный искусственным интеллектом).
  • Обзор AI (ответы AI в поиске Google).
  • AI-персоны Instagram (чат-боты со знаменитостями).
  • Волшебный листинг Ebay (превратите фотографию в листинг).
  • Redfin Redesign (попробуйте дизайн интерьера на реальных фотографиях домов).

Как эксперт по SEO, я заметил, что различие между контентом, созданным машиной (MGC) и контентом, созданным человеком (HGC), становится все более размытым. Чтобы получить некоторое представление об этом вопросе, я провел эксперимент среди своих подписчиков в Twitter и LinkedIn. Я попросил их оценить две статьи, основываясь на их восприятии того, какая из них была написана человеком, а какая — машиной, и обосновать свой выбор.

Как эксперт по SEO, я заметил, что лишь небольшое количество людей заметили, что оба текста написаны искусственным интеллектом. Чтобы проверить восприятие людей, я намеренно задал вводящий в заблуждение вопрос. Если бы я сообщил, что автор одного произведения — человек, вы бы поверили?

  • Это не единичный эксперимент. Опрос 1900 американцев показал, что 63,5 % людей не могут отличить контент, созданный искусственным интеллектом, от человеческого контента1.
  • Люди обращаются за помощью: в мае 2024 года спрос на [ai checker] в Google достиг 100 000 (взгляд).
  • Темная сторона: мошенники используют MGC для заработка, поскольку 77 % жертв мошенничества с искусственным интеллектом потеряли деньги2.

Высокий уровень LLM подталкивает SEO-задачи к оптимизации процессов с помощью искусственного интеллекта и машинного обучения, в то время как авторы улучшают контент с удовлетворительного до превосходного, а не создают его с нуля.

Сборщики систем

«Клиенты, подкастеры и ведущие групп часто спрашивают меня, какие способности SEO-специалисты должны развивать в эпоху искусственного интеллекта. В течение длительного периода я предлагал приобретать знания, оставаться адаптируемыми и накапливать как можно больше практического опыта. с искусственным интеллектом, насколько это возможно».

Основываясь на моем обширном опыте опытного специалиста по SEO, я твердо убежден, что нам уже недостаточно просто сосредоточиться на оптимизации веб-сайтов для поисковых систем. В условиях быстрого развития технологий искусственного интеллекта нам необходимо адаптироваться и научиться создавать агенты искусственного интеллекта и рабочие процессы, которые автоматизируют задачи.

AI + No-code позволяет оптимизаторам автоматизировать рабочие процессы

Несколько примеров:

1/ Каннибализация

  • Старый мир: оптимизаторы загружают данные из консоли поиска и создают сводные таблицы, чтобы выявить каннибализацию ключевых слов.
  • Новый мир: оптимизаторы создают рабочий процесс с использованием искусственного интеллекта, который отправляет изменения, выявляет истинную каннибализацию ключевых слов, вносит предложения по контенту для решения проблемы и отслеживает улучшения.

2/ Сканирование сайта

  • Старый мир: оптимизаторы сканируют веб-сайты, чтобы обнаружить неэффективность внутренних ссылок, ошибки кода статуса, дублированный контент и т. д.
  • Новый мир: оптимизаторы создают ИИ-агент, который регулярно сканирует сайт и автоматически предлагает новые внутренние ссылки, которые отправляются после одобрения человека, исправляет неработающие канонические теги и исключает программные ошибки 404 в robots.txt.

3/ Создание контента

  • Старый мир: SEO-специалисты исследуют ключевые слова и пишут краткие описания контента. Писатели создают контент.
  • Новый мир: оптимизаторы автоматизируют исследование ключевых слов с помощью искусственного интеллекта и создают сотни соответствующих статей в качестве основы для авторов.

Благодаря использованию современных инструментов рабочего процесса искусственного интеллекта, таких как AirOps и Apify, доступных в настоящее время, можно связать вместе агентов и языковые модели для различных задач, таких как сбор веб-страниц, анализ данных, преобразование и создание контента.

В будущем мы будем уделять значительно больше усилий созданию самодействующих механизмов, а не тратить много часов на сложный анализ и составление списков предложений по SEO. Процесс SEO повлечет за собой обоснование, определение руководящих принципов, запуск действий и написание кода.

С помощью ИИ можно научиться (почти) всему

Несмотря на то, что в прошлом вы не уделяли много времени освоению Python или R, теперь у вас есть возможность создавать любые необходимые сценарии с помощью ChatGPT и Gemini в Google Colab, используя четкие диалоговые директивы.

Если скрипт не работает должным образом, вы можете прикрепить снимок экрана к своему сообщению в ChatGPT и объяснить проблему. Я могу помочь вам с различными темами, такими как Regex, Google Sheets/Excel, R, Python и другими, предложив соответствующие решения.

Как специалист по SEO, способность составлять сценарии позволяет вам самостоятельно решать такие задачи, как анализ данных, A/B-тестирование и использование API. Раньше вы, возможно, полагались на инженеров, специалистов по обработке данных или авторов контента, которые выполняли за вас определенные задачи. Однако теперь вы можете работать быстрее и самостоятельно.

Как опытный специалист в области цифрового маркетинга, я заметил, что не я один осознаю ценность искусственного интеллекта (ИИ) в расширении наших навыков. Многие люди сейчас используют ИИ для изучения программирования, письма и других ценных навыков. Чтобы использовать возможности ИИ при построении рабочих процессов, нам просто нужно попросить его дать нам инструкции.

Когда вы можете научиться практически всему, единственным ограничением является время.

Изменения в работе писателей

Вопреки распространенному мнению, писатели остаются незаменимыми в этом сценарии, взяв на себя такие важные обязанности, как редактирование, руководство и выбор контента.

В любом автоматизированном процессе людям важно проверять результаты. Представьте себе сборочную линию автомобилей. Хотя контент, создаваемый искусственным интеллектом, значительно совершенствуется, проведение выборочных проверок снижает вероятность ошибок. Обнаруженные проблемы, такие как неверные факты или необычные формулировки, служат ценной критикой для улучшения моделей и уточнения их результатов.

Как опытный веб-мастер, я бы перефразировал это утверждение так: вместо того, чтобы закладывать основу с помощью черновиков, писатели теперь могут улучшить контент, созданный искусственным интеллектом, чтобы сделать его по-настоящему исключительным. Что касается повышения ценности информации, большая часть усилий писателя будет направлена ​​на совершенствование и раскрытие полного потенциала произведения.

Как эксперт по SEO, я бы посоветовал перефразировать это так: в сфере высококачественного контента я наблюдаю всплеск стандартов, которые простираются от статей в блогах до программной рекламы. Авторы теперь интегрируют тщательно отобранный контент, когда поисковые запросы намекают на человеческое участие, как в туристической индустрии.

Несправедливое преимущество

С внедрением новых технологий первые их последователи, будь то частные лица или предприятия, могут получить непропорционально большую выгоду, прежде чем другие последуют их примеру. Однако меня беспокоит то, что избранная группа быстро развивающихся компаний может захватить огромные территории в сфере искусственного интеллекта, прежде чем их догонят конкуренты.

Как эксперт по SEO, я бы перефразировал это предложение следующим образом: благодаря этому значительному скачку вперед у новых участников рынка появится законная возможность конкурировать с признанными игроками рынка и оставить свой след в отрасли.

«Для SEO-профессионалов влияние искусственного интеллекта может перевесить его значение для Google. Использование грубой силы искусственного интеллекта может позволить нам преодолеть препятствия, создаваемые передовым искусственным интеллектом и корректировкой алгоритмов на основе машинного обучения».

Одна из возможных перефразировок могла бы звучать так: «SEO-специалисты могут получить значительную выгоду, если будут не просто предлагать предложения, а скорее создавать ощутимые результаты. Благодаря способности генерировать немедленные результаты ценность вклада SEO-специалистов резко меняется».

1

Опрос: ChatGPT и AI-контент: могут ли люди заметить разницу?

2

Растет число случаев голосового мошенничества с использованием искусственного интеллекта, от которого пострадал каждый четвертый взрослый

Смотрите также

2024-07-23 16:39

Google отказывается от сторонних файлов cookie

Как опытный веб-мастер с более чем десятилетним опытом работы за плечами, я с большим интересом и нетерпением наблюдал за неоднозначной позицией Google в отношении сторонних файлов cookie. В течение многих лет мы готовились к концу эпохи, поскольку технологический гигант неоднократно откладывал реализацию своего плана по поэтапному отказу от этих файлов cookie.


Google объявил, что больше не будет отказываться от сторонних файлов cookie в Chrome.

Как опытный веб-мастер, я считаю, что смещение нашего фокуса в сторону предоставления пользователям большей автономии и контроля над их конфиденциальностью при просмотре веб-страниц является многообещающим новым подходом.

Серьезный поворот политики

Компания уже довольно давно стремится поэтапно отказаться от сторонних файлов cookie, но постоянно отодвигает сроки из-за многочисленных препятствий.

Вместо того, чтобы пренебрегать файлами cookie, Google предоставит новый интерфейс Chrome, который позволит пользователям принимать взвешенные решения относительно своих предпочтений в отношении конфиденциальности.

Энтони Чавес, вице-президент Privacy Sandbox в Google, заявил в объявлении:

«Мы предлагаем новый метод, улучшающий контроль пользователей. Вместо постепенного отказа от сторонних файлов cookie мы планируем внедрить новую функцию в Google Chrome, позволяющую пользователям принимать осознанные решения, применимые ко всему их опыту просмотра. Пользователи будут иметь возможность изменить этот выбор в любое время.»

Пользовательский контроль на переднем крае

Благодаря последнему предложению пользователи Chrome теперь имеют возможность настраивать параметры конфиденциальности. Эти предпочтения будут распространяться на все их возможности просмотра веб-страниц.

После получения существенного вклада от различных сторон, таких как регулирующие органы, такие как Управление по конкуренции и рынкам Великобритании (CMA) и Управление комиссара по информации (ICO), а также издатели, веб-разработчики, организации по стандартизации, группы гражданского общества и представители рекламной промышленность.

Постоянная приверженность песочнице конфиденциальности

Как специалист по цифровому маркетингу, я могу сказать вам, что подход Google к инициативе Privacy Sandbox кардинально не изменился, несмотря на недавние события. Компания по-прежнему стремится улучшать защиту конфиденциальности и предоставлять полезные функции тем, кто согласился. Google намерен продолжать дорабатывать и предоставлять API-интерфейсы Privacy Sandbox для достижения этих целей.

Для дальнейшего повышения конфиденциальности в режиме инкогнито Google планирует реализовать защиту IP-адресов.

Последствия для ландшафта цифровой рекламы

Как эксперт по SEO, я бы перефразировал это утверждение следующим образом: По моему опыту, переход к будущему без файлов cookie имеет серьезные последствия для ландшафта цифровой рекламы. Готовясь к этим изменениям, рекламодатели и издатели должны быть готовы соответствующим образом адаптировать свои подходы.

Как опытный веб-мастер, я могу сказать вам, что Google стремится сотрудничать с регулирующими органами, такими как CMA и ICO, а также с международными партнерами в процессе доработки своего нового подхода. Кроме того, компания планирует взаимодействовать с игроками отрасли при реализации этих изменений.

В итоге

Поскольку Google меняет свой подход к сторонним файлам cookie, следует помнить следующие ключевые моменты:

  • Google не отказывается от сторонних файлов cookie, как планировалось ранее.
  • Пользователи получат больше контроля над настройками конфиденциальности в Chrome.
  • Проект Privacy Sandbox продолжится, предлагая альтернативные технологии.
  • Это изменение по-разному повлияет на рекламодателей, издателей и пользователей.
  • Полное влияние этого решения на сферу цифровой рекламы еще предстоит увидеть.

Смотрите также

2024-07-23 01:38

Google заявляет, что это лишит вас «связывающей силы»

Как опытный веб-мастер с более чем десятилетним практическим опытом работы в области SEO, я видел, как в мире поисковой оптимизации приходят и уходят многие тенденции. Один вопрос, который продолжает смущать многих владельцев веб-сайтов, заключается в том, отменяет ли блокировка Google сканирования веб-страницы ссылочную силу внутренних или внешних ссылок. Недавно я наткнулся на проницательный ответ на этот вопрос от Джона Мюллера из Google во время подкаста SEO Office Hours.


В недавнем подкасте SEO Office Hours Джона Мюллера из Google спросили о влиянии на ссылочный вес или ссылочный вес, когда веб-страница заблокирована от сканирования. Ответ Мюллера позволил по-новому взглянуть на эту проблему и пролил свет на то, как Google Search обрабатывает такие сценарии внутри компании.

О силе ссылок

Проще говоря, говоря о внутренних ссылках, Google подчеркивает, что они используются для обозначения значимости определенных веб-страниц для поисковых систем.

В недавних патентных заявках и исследовательских публикациях Google отсутствует подробная информация о текущих методах включения внешних ссылок в рейтинг веб-страниц. Следовательно, знания SEO-специалистов об этом аспекте оптимизации могут уже не быть точными и актуальными.

Основываясь на моем обширном опыте в области SEO и на протяжении многих лет внимательно следя за заявлениями Джона Мюллера, я считаю, что, хотя его комментарии по поводу использования Google входящих и внутренних ссылок могут на первый взгляд не дать новой информации, они предлагают свежую перспективу, которая может быть более полезной. ценно, чем кажется.

Влияние блокировки индексации на ссылки

Респонденту было любопытно, влияет ли запрет Google на доступ к определенной веб-странице для индексации, как внутренние и входящие ссылки этой страницы используются Google в процессе алгоритма поиска.

«Устраняет ли запрет Google на доступ или индексирование URL-адреса влияние как внешних, так и внутренних ссылок, указывающих на него?»

Мюллер предлагает подойти к решению запроса с точки зрения того, как на него может отреагировать обычный пользователь, предлагая глубокое и заставляющее задуматься предложение.

С точки зрения пользователя, если страница недоступна, любые ссылки на этой странице не имеют большого значения, поскольку пользователи не могут нажимать на них или использовать их.

Проще говоря, когда Google не проходит по ссылке во время сканирования веб-страниц, ссылка остается невидимой для Google и, таким образом, не может повлиять на ее индексацию или рейтинг в поисковых системах.

Ключевое слово и пользовательский взгляд на ссылки

Взгляд Мюллера на рассмотрение проблем, связанных со ссылками, с точки зрения пользователя интригует, поскольку он отличается от традиционных способов рассмотрения таких вопросов. Тем не менее, это имеет смысл, поскольку, если вы запретите человеку доступ к веб-странице, он, естественно, не сможет щелкнуть какие-либо ссылки, имеющиеся там.

Как опытный веб-мастер, я заметил, что внешние ссылки играют важную роль в поисковой оптимизации (SEO). В прошлом некоторые создатели ссылок считали, что соответствие ключевых слов между текстом ссылки и целевой страницей автоматически повысит рейтинг целевой страницы, поскольку ссылка находится на «релевантной» веб-странице. Например, если на веб-странице морской биологии, посвященной чернилам осьминога, была ссылка на веб-сайт, посвященный чернилам для принтера, они думали, что Google будет использовать эту ссылку для ранжирования из-за совпадения ключевых слов («чернила» в обоих случаях). Однако важно помнить, что с тех пор алгоритмы поисковых систем изменились, и полагаться исключительно на этот метод больше не является эффективной стратегией. Вместо этого сосредоточьтесь на создании высококачественного релевантного контента и получении естественных обратных ссылок из авторитетных источников.

Сегодня это может показаться простодушием, но многие люди твердо верили в метод понимания ссылок, «ориентированный на ключевые слова», а не в предложенный Джоном Мюллером «ориентированный на пользователя» подход. С точки зрения пользователя расшифровка ссылок становится менее сложной и, вероятно, больше соответствует методам ранжирования ссылок Google по сравнению с устаревшим подходом, ориентированным на ключевые слова.

Оптимизируйте ссылки, сделав их доступными для сканирования

Мюллер продолжил свой ответ, подчеркнув важность открытия страниц с помощью ссылок.

Чтобы поисковые системы легко находили веб-страницу, свяжите ее с другими доступными и релевантными страницами вашего сайта. Вы также можете скрыть определенные страницы от обнаружения, но имейте в виду, что если значительная часть вашего веб-сайта доступна только со скрытой страницы, это может затруднить поиск для пользователей.

О блокировке сканирования

Как опытный веб-разработчик с более чем десятилетним опытом работы за плечами, я много раз сталкивался с этой распространенной ошибкой. Владельцы сайтов, стремясь скрыть определенные страницы от поисковых систем, таких как Google, совершают ошибку, используя метатег robots, чтобы предотвратить индексацию, в то же время позволяя сканировать ссылки на тех же самых страницах.

(Ошибочная) директива выглядит следующим образом:

В сети циркулирует значительное количество неверной информации, советующей использовать следующее метаописание. Удивительно, но эта рекомендация повторяется и в документах Google AI Review.

Скриншот обзоров ИИ

Действительно, данная инструкция для роботов не работает, поскольку, по объяснению Мюллера, если человек или поисковая система не могут просмотреть веб-страницу, они, естественно, не могут перейти по встроенным в нее ссылкам.

Хотя существует инструкция «nofollow», которая предписывает поисковым системам игнорировать ссылки на веб-странице, не существует эквивалентной директивы «follow», обязывающей поисковые системы проходить по всем ссылкам на странице. Сканирование ссылок обычно является действием по умолчанию, которое поисковые системы предпринимают по своему усмотрению.

Узнайте больше о метатегах роботов.

Послушайте, как Джон Мюллер отвечает на вопрос с отметки 14:45 минуты подкаста:

Смотрите также

2024-07-23 01:08