Как опытный специалист по цифровому маркетингу с более чем десятилетним опытом работы за плечами, я могу засвидетельствовать повторяющийся кошмар, которым параметры URL-адресов стали для таких специалистов по SEO, как я. Я помню дни, когда мы могли наивно полагать, что поисковые системы без труда просканируют и проиндексируют каждую веб-страницу. Однако времена изменились, и крупные сайты и интернет-магазины теперь борются с этой широко распространенной проблемой.
Недавно Гэри Иллис из Google поднял распространенную проблему в SEO, о которой он также упомянул во время подкаста Google в своем аккаунте LinkedIn.
Проблема? Параметры URL-адреса вызывают трудности поисковых систем при сканировании веб-сайтов.
Как опытный веб-мастер, я столкнулся с общей проблемой крупных веб-сайтов и интернет-магазинов: когда к URL-адресу добавляется несколько переменных, он может генерировать массив различных веб-адресов, каждый из которых указывает на идентичный контент. Эта проблема, часто называемая дублированием URL-адресов, может создавать проблемы при управлении и оптимизации присутствия сайта в Интернете.
Это может затруднить поисковые системы, снизив их эффективность при правильном сканировании и индексации сайтов.
Загадка параметров URL-адреса
И в подкасте, и в обновлении LinkedIn Иллиес поясняет, что URL-адреса могут включать неограниченное количество параметров, причем каждый параметр приводит к уникальному URL-адресу, несмотря на то, что все они ведут к одному и тому же контенту.
Он пишет:
Как опытный веб-разработчик с многолетним опытом работы за плечами, я начал понимать тонкости структур URL-адресов и методы их расширения. Одна вещь, которая никогда не перестает меня удивлять, это то, как, казалось бы, простой URL-адрес, такой как «/path/file», можно расширить до более сложных версий, таких как «/path/file?param1=a» или даже «/path/file?param1=». a¶m2=b». Несмотря на различия во внешнем виде, эти варианты потенциально могут содержать одно и то же содержание. Это свидетельство гибкости и адаптируемости в веб-разработке — навыка, который я считал незаменимым на протяжении всей своей карьеры.
«Каждый [это] отдельный URL-адрес с одинаковым содержанием», — отметил Иллиес.
Случайное расширение URL и его последствия
Иногда поисковые системы могут попытаться получить доступ к несуществующим страницам вашего веб-сайта — явление, которое Джон Мюллер называет «ложными URL-адресами».
Они могут появиться из-за таких вещей, как плохо закодированные относительные ссылки. То, что начинается как сайт обычного размера с примерно 1000 страницами, может превратиться в миллион фантомных URL-адресов.
Этот взрыв фейковых страниц может вызвать серьезные проблемы. Сканеры поисковых систем могут сильно ударить по вашим серверам, пытаясь просканировать все эти несуществующие страницы.
В конечном счете, если ваши веб-страницы не сканируются и не добавляются в базы данных поисковых систем эффективно, это может негативно повлиять на ваши позиции в результатах поиска.
Иллиес утверждает:
Иногда вы можете непреднамеренно создать большое количество ложных URL-адресов, что может увеличить общее количество URL-адресов со спокойных 1000 до ошеломляющего 1 миллиона. Этот приток может привлечь сканеров, которые неожиданно создают нагрузку на ваши серверы и потенциально вызывают такие проблемы, как поломка труб и свист, раздающийся слева и справа. Одной из частых причин являются плохие относительные ссылки. Однако robotxt может оказаться полезным инструментом в таких ситуациях.
Больше всего пострадали сайты электронной коммерции
В недавнем сообщении LinkedIn об интернет-магазинах прямо не упоминалось, однако в ходе последующего разговора в подкасте стало ясно, что этот конкретный вопрос действительно важен для сайтов электронной коммерции.
Эти веб-сайты обычно используют параметры URL-адреса для отслеживания, фильтрации и сортировки продуктов.
Следовательно, вы можете столкнуться с несколькими разными веб-адресами (URL), ведущими на одну и ту же страницу продукта. Эти варианты URL-адресов отражают выбор цвета, размера и происхождения клиента.
Смягчение проблемы
Иллиес постоянно рекомендует использовать robots.txt для решения этой проблемы.
В подкасте Иллиес выделил возможные исправления, такие как:
- Создание систем для обнаружения повторяющихся URL-адресов
- Лучшие способы для владельцев сайтов сообщить поисковым системам о структуре их URL-адресов.
- Более разумное использование файла robots.txt для управления ботами поисковых систем
Устаревший инструмент параметров URL-адресов
Как опытный веб-мастер, я имел возможность внимательно следить за развитием Google, и в недавнем обсуждении подкаста Джон Мюллер пролил свет на прошлые усилия Google по решению этой конкретной проблемы. Среди этих усилий был ныне несуществующий инструмент параметров URL-адресов в Search Console.
Этот инструмент позволял веб-сайтам указывать, какие параметры важны, а какие можно игнорировать.
Отвечая на вопрос в LinkedIn, можно ли вновь представить этот инструмент, Иллиес выразил сомнение относительно его реальной эффективности.
Он заявил, что, хотя теоретически инструмент может работать, на практике это не так, поскольку пользователям сложно управлять своими собственными настройками, что очень похоже на управление параметрами с помощью файла robots.txt.
Последствия для SEO и веб-разработки
Эта продолжающаяся дискуссия со стороны Google имеет несколько последствий для SEO и веб-разработки:
- Бюджет сканирования. Для крупных сайтов управление параметрами URL может помочь сэкономить бюджет сканирования, гарантируя сканирование и индексацию важных страниц.
- Архитектура сайта. Разработчикам, возможно, придется пересмотреть структуру URL-адресов, особенно для крупных сайтов электронной коммерции с многочисленными вариантами продуктов.
- Фасетная навигация. Сайты электронной коммерции, использующие фасетную навигацию, должны учитывать, как это влияет на структуру URL-адресов и возможность сканирования.
- Канонические теги. Канонические теги помогают Google понять, какую версию URL следует считать основной.
Почему это важно
Как специалист по SEO, я заметил, что Google выражает обеспокоенность по поводу проблем с параметрами URL на различных платформах, демонстрируя свою приверженность поддержанию высокого качества результатов поиска.
Постоянное обновление этих технических деталей имеет решающее значение для специалистов отрасли, чтобы гарантировать, что они будут оставаться релевантными в результатах поиска.
Тем временем желательно активно управлять URL-адресами и обеспечивать понятную навигацию для веб-сканеров, поскольку Google продолжает работать над своими решениями.
Смотрите также
- Акции KZOS. Казаньоргсинтез: прогноз акций.
- Вышло базовое обновление Google за декабрь 2024 г., и оно большое
- Google запускает новый вид «24 часа» в консоли поиска
- Взаимодействие со следующей отрисовкой (INP): все, что вам нужно знать
- Акции KLSB. Калужская сбытовая компания: прогноз акций.
- Акции ELMT. Элемент: прогноз акций.
- Акции NOMP. Новошип: прогноз акций.
- Акции BELU. Novabev Group: прогноз акций.
- Техническая стратегия SEO: советы экспертов по максимизации производительности сайта
- Акции DATA. Группа Аренадата: прогноз акций.
2024-08-20 22:39