Google тестирует обзор искусственного интеллекта с помощью небольшой ссылки «Еще»

Как опытный специалист в области цифрового маркетинга с более чем двадцатилетним опытом работы, я был свидетелем неустанного стремления Google к инновациям и удобным пользовательским интерфейсам. После анализа недавних изменений во фрагменте обзора AI я лично отдаю предпочтение новому дизайну.


Google экспериментирует с уменьшением заметной кнопки «Показать больше» до компактной ссылки «Еще», расположенной внизу раздела «Сводка по искусственному интеллекту». Кроме того, они тестируют идею удаления или сокрытия заголовка «Обзор AI» и логотипа Gemini, расположенных в верхнем левом углу интерфейса.

Нажатие кнопки «Еще» развернет обзор ИИ, в котором для вашего удобства будет показан весь ответ вместе с карточками ссылок. Вы можете сжать его обратно, нажав «меньше».

Первоначально это явление наблюдал Шамим Адхикаратх, а позже они опубликовали видео, демонстрирующее это. Вот GIF фрагмента этого видео:

Броди Кларк позже опубликовал об этом на X со скриншотами обоих пользовательских интерфейсов.

Вот обычная кнопка «Показать больше» с заголовком AI Обзор Gemini:

Вот новый со ссылкой «подробнее»:

Что вам нравится больше?

Смотрите также

2024-09-13 15:14

Google Ads вводит конфиденциальное сопоставление

Как опытный веб-мастер с более чем двадцатилетним стажем работы в этом динамичном цифровом пространстве, я должен признать, что объявление Google о «конфиденциальном сопоставлении» пробудило у меня интерес. Возможность для предприятий безопасно использовать свои собственные данные, обеспечивая при этом конфиденциальность и прозрачность, действительно многообещающая.


Google Ads недавно представила новую функцию, которую они называют «безопасное сопоставление данных». Этот инструмент позволяет компаниям безопасно связывать свои собственные данные о клиентах с инструментами Google для измерения эффективности и таргетирования аудиторий. Эта функция будет использоваться в различных секторах Google Ads.

Google использует сложные инструменты, называемые Trusted Execution Environments (TEE), которые открывают перед компаниями инновационные возможности для использования собственных данных для охвата клиентов и оценки эффективности своих инициатив в области цифровой рекламы.

Если вы отправите в Google данные о своих клиентах, такие как адреса электронной почты, номера телефонов и т. д., эти данные будут доступны или использованы Google только в том случае, если они найдут соответствующую запись. В противном случае данные останутся скрытыми от просмотра Google.

Google обеспечивает повышенный уровень безопасности и открытости данных, разделяя информацию о вашей компании во время обработки, гарантируя, что ни Google, ни какая-либо другая сторона не получит доступа к обрабатываемым данным.

У Грега было хорошее резюме этого в начале нашего вчерашнего шоу «Это новое»:

И более подробно он написал на Marketing O’Clock:

С этого момента конфиденциальное сопоставление станет стандартной процедурой для всех новых подключений к данным, связанных со списками электронных адресов Google Рекламы. В ближайшие месяцы эта функция конфиденциального сопоставления также будет реализована для увеличения конверсий на веб-сайтах.

Джинни Марвин из Google сказала на X:

Теперь, когда вы подключаете свои собственные данные к Google Рекламе для списка электронных адресов, а вскоре и для расширенного отслеживания конверсий, они будут автоматически обрабатываться с использованием конфиденциального сопоставления. Никаких дополнительных действий с вашей стороны не требуется.

Безопасная обработка данных обеспечивается за счет технологии конфиденциальных вычислений, в которой используется уникальное программное обеспечение и защищенная область внутри оборудования, известная как доверенная среда выполнения (TEE). Этот компонент обсуждался ранее на нашей конференции GML в этом году.

Обеспечение конфиденциального сопоставления означает, что ваши данные будут надежно зашифрованы, что сделает их невидимыми не только для широкой публики, но и для таких компаний, как Google.

Рекламодатели могут выбрать безопасное кодирование своих данных, а затем получить подтверждение того, что их данные обрабатываются третьей стороной в соответствии с планом.

Конфиденциальное сопоставление теперь доступно всем клиентам по всему миру.

Вот еще некоторые разъяснения и подробности:

Чистые помещения предлагают схожие решения различных проблем, но их эффективность может сильно различаться из-за индивидуальных настроек поставщиков. Наша платформа «чистых помещений» Ads Data Hub позволяет рекламным агентствам и партнерам по измерению проводить индивидуальный анализ рекламных кампаний, обеспечивая при этом конфиденциальность пользователей.

Доверенные среды выполнения (TEE) — это системы, которые используют как аппаратное, так и программное обеспечение для обработки данных в безопасной, отдельной части, гарантируя, что ни одна организация, такая как Google в данном случае, не сможет получить доступ к обрабатываемым данным. Более того, TEE позволяют проверять код и обеспечивают техническую гарантию действий программного обеспечения.

Привет, Тэд! Позвольте мне немного уточнить: в настоящее время данные рекламодателей защищены надежными механизмами безопасности. Последние достижения в области технологий сохранения конфиденциальности обеспечивают безопасное сопоставление, обеспечивая повышенную прозрачность в отношении ссылок и найма собственных данных рекламодателей.

» AdsLiaison (@adsliaison), 12 сентября 2024 г.

Похоже, что система сверки идентификационных данных издателя-рекламодателя (PAIR) на DV360 — это система, использующая технологию «чистых помещений». Эта система обеспечивает безопасное и конфиденциальное сопоставление собственных данных между издателями и рекламодателями для лиц, которые взаимодействовали с обеими сторонами.

» AdsLiaison (@adsliaison), 12 сентября 2024 г.

Здравствуйте, Майкл! Категоризация деликатных интересов и все политики в отношении списков электронных адресов по-прежнему будут оставаться под ограничениями.

» AdsLiaison (@adsliaison), 12 сентября 2024 г.

Смотрите также

2024-09-13 15:14

Зачем и как отслеживать обновления алгоритмов Google

Как опытный SEO-специалист с многолетним опытом работы за плечами, я могу сказать вам, что недавние обновления алгоритмов Google были не чем иным, как поездкой на американских горках!


Google постоянно совершенствует и совершенствует алгоритмы своих поисковых систем, при этом многочисленные изменения происходят несколько сотен или тысяч раз в год.

Google признает несколько важных обновлений, в том числе решение проблемы злоупотребления репутацией сайта, основное обновление, запланированное на март 2024 года, и предстоящее обновление обзора в ноябре 2023 года.

Как эксперт по SEO, я заметил, что Google склонен хранить молчание об обновлениях алгоритмов. Вместо этого мы выявляем их, наблюдая значительные колебания страниц результатов поисковых систем (SERP), что может указывать на изменение системы ранжирования.

В мае 2024 года Лили Рэй заметила значительные колебания посещаемости веб-сайта группы издателей благодаря использованию инструментов ранжирования. Однако Google отверг версию о том, что эти изменения были вызваны обновлением алгоритма.

7 мая был замечен всплеск волатильности, на следующий день после того, как Google сообщил, что они инициировали обновление информации о злоупотреблениях репутацией, включающее ручные действия, с последующим вступлением в игру автоматизированного аспекта.

Поскольку конкретные даты не были указаны, многие люди предположили, что эти веб-сайты пострадали от обновления алгоритма злоупотребления репутацией. Однако SearchLiaison разъяснил и оспорил это предположение, оставив в недоумении многих специалистов по SEO.

Многие распространенные советы по SEO, которые вы увидите (особенно от Google), сводятся к следующему: «не гонитесь за алгоритмами, просто делайте то, что лучше для пользователя», но алгоритмы могут оказать катастрофическое влияние на эффективность SEO (иногда несправедливо).

Другими словами, быстрые действия необходимы при появлении обновлений, если вы контролируете веб-сайт определенного бренда.

Ознакомление с датами выпуска обновлений и понимание их деталей позволит вам соответствующим образом адаптировать свой подход, тем самым сводя к минимуму потенциальные последствия в будущем и способствуя быстрому восстановлению в случае возникновения неблагоприятных последствий.

Почему вам следует отслеживать обновления Google

Быть в курсе алгоритмов и обновлений имеет решающее значение в SEO, поскольку Google иногда выпускает значительные обновления, которые могут повлиять на выполнение поиска (например, Florida, Panda, Penguin, RankBrain). Очень важно быть в курсе этих изменений, чтобы не быть застигнутыми врасплох крупными обновлениями. Для этого изучите историю алгоритмов, чтобы предсказать их будущие тенденции.

Как опытный веб-мастер, я хотел бы поделиться некоторыми мыслями об изменениях или обновлениях алгоритма поиска Google. В первую очередь эти обновления влияют на органическую видимость вашего веб-сайта, что приводит к его рейтингу. Однако важно понимать, что такие обновления могут также вызвать сбои в других областях. Например, они могут ввести новые функции поиска на определенной странице результатов поисковой системы (SERP), что потенциально снизит рейтинг кликов и трафик на ваш сайт.

Отслеживание и расшифровка обновлений Google позволяет вам вносить необходимые коррективы в случае внезапных колебаний производительности. Кроме того, это помогает в разработке долгосрочных эффективных стратегий SEO. Понимая эволюцию этих алгоритмов, вы можете предсказать будущие тенденции. Эти знания помогут вам избежать рискованных тактик SEO и сведут к минимуму вероятность того, что обновление серьезно повлияет на ваш сайт.

Преодоление негативных последствий обновлений требует усилий и терпения. Отслеживание обновлений позволяет вам понять, почему позиция вашего веб-сайта в результатах поиска могла упасть, что позволяет вам действовать оперативно и восстановить ее как можно быстрее.

Ресурсы для отслеживания обновлений алгоритмов Google

Панель статуса поиска Google

Эта панель мониторинга дополнительно отслеживает проблемы индексации и сканирования, а также корректировки алгоритмов в разделе «Рейтинг», предоставляя вам комплексные обновления.

Вы можете подписаться на обновления, используя этот RSS-канал.

X (ранее Твиттер)

Примерно десять лет назад Мэтт Каттс был признан влиятельной фигурой в сфере Google, постоянно информируя SEO-сообщество о любых изменениях, внесенных в алгоритм поисковой системы.

Эту роль теперь выполняет Google SearchLiaison, которым управляет Дэнни Салливан.

Убедитесь, что вы подписаны на настоящую страницу @searchliaison, в профиле которой есть подтвержденный значок.

Чтобы получить ответы об изменениях в алгоритме поиска Google, рассмотрите возможность размещения вашего запроса на платформе X и включите в него дескриптор @searchliaison. Чем подробнее вы зададите свой вопрос, тем выше вероятность того, что представитель Google предоставит вам полезную информацию.

Помимо основного сайта, было бы полезно следить за Барри Шварцем (@rustybrick) и Мари Хейнс (@Marie_Haynes). Они часто отслеживают обновления, касающиеся корректировок алгоритмов.

Журнал поисковых систем

На своей специализированной веб-странице журнал Search Engine Journal излагает хронологию корректировок алгоритма Google, начиная с 2003 года и по сегодняшний день. На странице представлены такие детали, как:

  • Название алгоритма.
  • Дата развертывания.
  • Краткий обзор последствий.
  • Подтверждено оно или нет.
  • Сопутствующие публикации и официальные объявления, чтобы вы могли погрузиться глубже и понять изменения.

Кроме того, рассмотрите возможность подписки на наши информационные бюллетени на SEJ, где мы обязательно будем уведомлять вас обо всех существенных обновлениях в алгоритмах поисковых систем.

7 инструментов для отслеживания обновлений алгоритмов Google

Google склонен с осторожностью относиться к внешним инструментам отслеживания, которые отслеживают изменения его алгоритмов, поскольку эти инструменты иногда могут быть неточными и вызывать ложные срабатывания. Это сообщение Google передает SEO-сообществу.

Понятно, что Google может относиться к ним неблагосклонно, поскольку они часто сканируют страницы результатов поиска Google для сбора информации, а Google, по-видимому, считает это нежелательным.

Как специалист по цифровому маркетингу, я заметил, что страницы результатов поисковых систем (SERP) могут быть довольно динамичными и часто испытывать колебания. Однако большинство инструментов, которые мы используем для мониторинга этих изменений, предоставляют надежную информацию. Они делают это, присваивая «оценки волатильности», которые отражают степень изменения результатов поиска.

Ниже приведена таблица с подробным описанием уровней волатильности поисковой выдачи для различных инструментов:

Название инструмента Нормальный Середина Высокий
МозКаст Ниже 70°F 70–90 °F Выше 90°F
Датчик Семраша  0-5 5 – 8 8 – 10
Похожиевеб  0-50 50 – 65  +65
Аккуранкер  0-12 12 – 15  +15
Расширенные веб-рейтинги  0-4 4 – 7 + 7
КогнитивныеSEO-сигналы  0-50 50 – 70 +70
Алгору  ≤ 55 55- 60 +60

Теперь давайте рассмотрим несколько инструментов, которые вы можете использовать для отслеживания обновлений алгоритмов Google.

1. МозКаст

MozCast превращает отслеживание рейтингов в забавный стиль сводки погоды.

Эта система анализирует изменение позиций одинаковых ключевых слов в течение двух дней подряд и назначает температурную шкалу для отображения этого изменения. Температура 70 градусов по Фаренгейту означает постоянный, стабильный день, тогда как более высокие температуры предполагают большие колебания.

Чтобы дать вам представление о том, какой может быть высокая температура, я хотел бы упомянуть, что во время мартовского обновления ядра уровень нагрева MozCast колебался примерно от 42,2°C до 46,1°C. 7 мая его показатель составлял около 32,2°C, но впоследствии он увеличился до 43,8°C, что позволяет предположить, что MozCast смог обнаружить некоторую активность или движение.

Итак, когда температура MozCast близка к 100°F, это довольно высокая температура.

2. Датчик Семруша

Semrush Sensor служит мощным ресурсом, помогающим вам отслеживать и понимать изменения в рейтингах поисковых систем.

Как и MozCast, этот инструмент отслеживает определенный набор ключевых слов и ежедневно записывает степень изменений в результатах поиска по этим ключевым словам. Однако он предлагает более подробную информацию за счет категоризации данных по отраслям промышленности и географическому положению.

Одним из полезных аспектов инструмента Semrush является отчет как о восходящих, так и о падающих звездах, позволяющий быстро сравнить с конкурентами и определить сайты, которые либо процветают, либо испытывают трудности из-за недавних изменений.

Как профессионал в области цифрового маркетинга, я бы перефразировал это так: во время значительных обновлений основного алгоритма Google я обычно вижу, как на моем сейсмографе шкала SEO сайта колеблется от 8 до 10. 7 мая он зарегистрировал сильный рейтинг 9,5, что указывает на заметное встряску на страницах результатов поисковых систем (SERP), что очень похоже на настоящее землетрясение в цифровом ландшафте.

3. Похожие сети

Likeweb регулярно проверяет более 10 000 веб-сайтов и поисковых запросов каждый день, отслеживая тенденции в рейтингах и анализируя колебания результатов поиска Google на настольных и мобильных устройствах.

Вот как читать его графики:

  • Цифры на графике обозначают уровень колебаний рейтинга в определенные даты.
  • Более высокое число означает более существенные изменения в рейтинге.
  • Оранжевый означает умеренный риск.
  • Красный указывает на высокий риск.

В своей роли специалиста по цифровому маркетингу я хотел бы поделиться информацией об уровнях риска, используя в качестве примера мартовское основное обновление Google. Во время этого обновления показатель уровня риска, который мы отслеживали, составлял 65. Перенесемся на 11 мая, и тот же показатель подскочил до 71 — уровня, который мы относим к категории высоких. Это говорит о том, что наши системы уловили аномалию, которую обсуждали многие эксперты по SEO.

4. Рейтинг Accuranker «Ворчун»

Accuranker — еще один отличный инструмент для наблюдения за волатильностью поисковой выдачи Google.

У них есть забавная шкала оценок:

  • Ворчливый (0–10): Google охладел.
  • Осторожно (10–12): нормальная активность.
  • Ворчливый (12–15): Больше, чем обычно.
  • Furious (15+): высокие колебания результатов поиска.

Они выделяются своей способностью предлагать исторические данные, начиная с 2016 года, причем обновления происходят мгновенно по мере развития событий.

В отличие от некоторых других датчиков, он предоставляет подробную информацию о том, как Accuranker рассчитывает свой рейтинг:

  • Он отслеживает набор из 30 000 случайно выбранных ключевых слов.
  • Он разделяет набор ключевых слов между поиском на мобильных и настольных компьютерах (по 15 000 на каждый).
  • Для каждого ключевого слова он анализирует 100 лучших результатов поиска.
  • Окончательный индекс ключевого слова представляет собой общую сумму различий позиций для каждого ключевого слова, разделенную на количество результатов (обычно 100).

Большее значение индекса предполагает большую нестабильность рейтингов. Например, во время обновления ядра значение было примерно 14, что выше среднего. 7–9 мая инструмент сообщал: «Google расслаблен» и «осторожен» с оценкой около 9.

5. Изменения в алгоритме Google для расширенного веб-рейтинга

Проще говоря, Advanced Web Rankings отслеживает изменения в результатах поисковых систем примерно по 400 000 ключевых слов для настольных компьютеров и 200 000 ключевых слов для мобильных устройств в разных странах.

У вас есть возможность разделить данные на такие категории, как страны, устройства и отрасли. Кроме того, вы можете получить доступ к историческим данным за любой конкретный период времени, выбрав собственный диапазон дат.

Инструмент рассчитывает волатильность (KPI), которая имеет следующие области:

  • Низкая волатильность: указывает на незначительные изменения.
  • Средняя волатильность: отражает умеренные изменения в результатах поиска, которые могут быть связаны с незначительными обновлениями алгоритма или другими факторами.
  • Высокая волатильность. Это означает, что высокие колебания результатов поиска часто коррелируют с крупными обновлениями алгоритмов Google.

Во время мартовского обновления ядра наблюдались значительные колебания с показателем 7,3, а также умеренные колебания (оценки от 4 до 5), наблюдавшиеся с 7 по 9 мая.

6. Когнитивные SEO-сигналы

CognitiveSEO отслеживает более чем 170 000 ключевых слов для отслеживания изменений в рейтингах в результатах поиска на настольных компьютерах, мобильных устройствах и в локальном поиске, при этом выбор этих ключевых слов является случайным.

Метод, используемый для расчета показателя волатильности, остается нераскрытым, однако он предоставляет привлекательный график, на котором дни со значительными колебаниями цен отмечены красным.

В последнем обновлении Google Core в марте и с 7 по 9 мая наблюдались значительные колебания или нестабильность в рейтингах: оценки достигали 70 и 75.

7. Алгору

Создание Деяна, Algoroo, служит дополнительным ресурсом для мониторинга изменений в алгоритме поиска Google.

Система не раскрывает механизм процесса отслеживания, но мы понимаем, что она отслеживает определенные ключевые слова и измеряет изменения их позиций в рейтинге.

Чтение данных действительно просто; когда столбцы красные, это означает высокие колебания.

В последнем мартовском обновлении ядра были обнаружены умеренные колебания, за которыми следовала типичная активность с 7 по 9 мая.

Что делать после обновления алгоритма

Как опытный веб-мастер, я хотел бы поделиться одним важным советом: когда обновления алгоритма, подтвержденные или необъявленные, оказывают негативное влияние на ваш сайт, вы всегда должны помнить шесть ключевых моментов:

  • Не прыгайте и не вносите изменения по всему сайту в панике.
  • Проверьте техническую настройку веб-сайта, чтобы убедиться, что ваш трафик не упал из-за сбоя сервера или из-за того, что ваш разработчик случайно заблокировал его через robots.txt или по ошибке не индексировал.
  • Будьте терпеливы и собирайте данные.
  • Понаблюдайте, как обновление повлияет на ваших конкурентов, чтобы выявить закономерности.
  • При необходимости внесите коррективы в свою стратегию и тактику SEO.

Также важно помнить, что алгоритмы Google постоянно меняются.

То, что влияет на ваш рейтинг сегодня, может измениться через несколько дней, неделю или месяц.

Смотрите также

2024-09-13 14:39

Экспертное SEO-руководство по обработке параметров URL-адресов

Как опытный SEO-специалист с некоторыми седыми волосами, я видел свою долю головной боли, связанной с параметрами URL. Это все равно, что пытаться собрать кубик Рубика, жонглируя горящими факелами — сложно и потенциально опасно, если все сделано неправильно!


В мире SEO параметры URL представляют собой серьезную проблему.

Как для разработчиков, так и для аналитиков данных эти строки запроса могут оказаться ценными инструментами. Однако они доставляют настоящую неприятность, когда дело доходит до поисковой оптимизации (SEO).

Бесчисленные комбинации параметров могут разделить одно намерение пользователя на тысячи вариантов URL-адресов. Это может вызвать осложнения при сканировании, индексировании, видимости и, в конечном итоге, привести к снижению трафика.

Важно понимать, что просто желать, чтобы проблемы, связанные с управлением параметрами URL-адресов с точки зрения SEO, исчезли, невозможно. Вместо этого нам необходимо изучить эффективные стратегии правильной обработки параметров URL-адресов в контексте SEO.

Что такое параметры URL?

Как опытный веб-мастер, позвольте мне рассказать вам о параметрах URL-адресов, которые часто называют строками запроса или переменными URI. Это часть URL-адреса, которая идет после знака «?». символ. Они состоят из пары ключ-значение, где ключ и значение разделены знаком равенства («=»). На одну страницу можно добавить несколько параметров, разделив их амперсандом («&»).

Наиболее распространенные варианты использования параметров:

  • Отслеживание Например ?utm_medium=social, ?sessionid=123 или ?affiliateid=abc.
  • Изменение порядка. Например, ?sort=lowest-price, ?order=highest-rated или ?so=latest.
  • Фильтрация – например ?type=widget, color=purple или ?price-range=20-50.
  • Идентификация – Например ?product=small-purple-widget, Categoryid=124 или itemid=24AU.
  • Разбиение на страницы – например, ?page=2, ?p=2 или viewItems=10-30.
  • Поиск – например, ?query=users-query, ?q=users-query или ?search=drop-down-option.
  • Перевод – например, ?lang=fr или ?language=de.

Проблемы SEO с параметрами URL

1. Параметры создают дублирующийся контент

Зачастую параметры URL-адреса не вносят существенных изменений в содержимое страницы.

Пересмотренный макет страницы обычно не сильно отличается от первоначального. URL-адрес веб-страницы, содержащий маркеры отслеживания или идентификатор сеанса, остается точно таким же, как оригинал.

Например, все следующие URL-адреса будут возвращать коллекцию виджетов.

  • Статический URL: https://www.example.com/widgets
  • Параметр отслеживанияr: https://www.example.com/widgets?sessionID=32764
  • Параметр изменения порядка: https://www.example.com/widgets?sort=latest
  • Идентифицирующий параметр: https://www.example.com?category=widgets
  • Параметр поиска: https://www.example.com/products?search=widget

Наличие нескольких URL-адресов для практически идентичного контента во всех категориях на вашем сайте может быстро накапливаться, учитывая, что каждый из них увеличивает общую сумму.

Проблема заключается в том, как поисковые системы рассматривают каждый URL с параметрами как отдельные страницы. Это означает, что они воспринимают множество версий одной и той же веб-страницы, каждая из которых представляет идентичный контент и ориентирована на один и тот же поисковый запрос или тему.

Дублирование контента на вашем сайте, возможно, не приведет к его полному исключению из результатов поиска, но создает ситуацию, известную как «каннибализация ключевых слов». Это потенциально может снизить восприятие Google общего качества вашего сайта, поскольку дополнительные URL-адреса практически не приносят никакой дополнительной ценности.

2. Параметры снижают эффективность сканирования

Пропуск ненужных страниц, заполненных повторяющимися параметрами, во время сканирования веб-страниц ботом Google может затруднить индексацию важных SEO-страниц на вашем веб-сайте, а также увеличить нагрузку на ресурсы вашего сервера.

Google прекрасно резюмирует этот момент.

Как специалист по цифровому маркетингу, я заметил, что сложные структуры URL-адресов, особенно содержащие множество параметров, могут создавать проблемы для веб-сканеров. Это связано с тем, что они могут непреднамеренно увеличить количество URL-адресов, ведущих к идентичному или очень похожему контенту на наших сайтах, что может оказаться весьма затруднительным для эффективного управления поисковыми системами.

Следовательно, сканирующий бот Google потенциально может использовать больше данных, чем требуется, или не сможет полностью просканировать весь контент вашего веб-сайта.

3. Сигналы ранжирования страницы по параметрам

Когда идентичный контент веб-страницы представлен в разных формах или версиях, это может привести к тому, что ссылки и публикации в социальных сетях приведут к многочисленным вариантам этого контента.

Поступая так, вы ослабляете показатели релевантности для поисковых систем. Это действие вызывает путаницу у сканера, из-за чего он не знает, какой из нескольких страниц отдать приоритет при ответе на конкретный поисковый запрос.

4. Параметры делают URL-адреса менее кликабельными

Понятно, что URL-адреса с параметрами могут быть непривлекательными и сложными для чтения. Они могут показаться не такими надежными, что делает их менее привлекательными для кликов.

Это может повлиять на скорость веб-страницы. Дело не только в том, что рейтинг кликов (CTR) влияет на рейтинг в поисковых системах, но и потому, что клики по ним становятся менее привлекательными в чат-ботах с искусственным интеллектом, сообщениях в социальных сетях, электронных письмах, онлайн-форумах или в любом другом месте, где виден полный URL-адрес, из-за возможное копирование и вставка.

В отношении каждой страницы эти действия — твиты, лайки, репосты, электронные письма, ссылки, упоминания — могут показаться незначительными, но каждое из них вносит значительный вклад в общую видимость вашего веб-сайта или его усиление в цифровом мире.

Плохая читаемость URL-адресов может способствовать снижению вовлеченности бренда.

Оцените масштабы проблемы с параметрами

Важно знать каждый параметр, используемый на вашем сайте. Но есть вероятность, что ваши разработчики не поддерживают актуальный список.

Как мы можем обнаружить все факторы, требующие управления, или понять, как поисковые системы сканируют и классифицируют эти типы страниц? Каково их значение для пользователей?

Выполните следующие пять шагов:

  • Запустите сканер. С помощью такого инструмента, как Screaming Frog, вы можете выполнить поиск по запросу «?» в URL-адресе.
  • Просмотрите файлы журналов: проверьте, сканирует ли робот Googlebot URL-адреса на основе параметров.
  • Посмотрите в отчете об индексировании страницы Google Search Console: в образцах индекса и соответствующих неиндексируемых исключениях найдите «?» в URL-адресе.
  • Поиск с помощью site: inurl: расширенные операторы. Узнайте, как Google индексирует найденные вами параметры, вставив ключ в запрос с комбинацией ключей site:example.com inurl:key.
  • Посмотрите в отчете Google Analytics по всем страницам: выполните поиск по запросу «?» чтобы увидеть, как каждый из найденных вами параметров используется пользователями. Обязательно проверьте, что параметры URL-запроса не были исключены в настройках просмотра.

Вооружившись этими данными, вы теперь можете решить, как лучше всего обрабатывать каждый из параметров вашего веб-сайта.

SEO-решения для управления параметрами URL-адресов

В вашем арсенале SEO есть шесть инструментов для работы с параметрами URL-адресов на стратегическом уровне.

Ограничить URL-адреса на основе параметров

Простой обзор того, как и почему генерируются параметры, может обеспечить быстрый выигрыш в SEO.

Вы часто будете обнаруживать методы упрощения URL-адресов за счет уменьшения количества параметров, тем самым ограничивая потенциальный вред для SEO. Вот четыре типичные проблемы, которые следует учитывать, начиная анализ.

1. Устраните ненужные параметры

Как опытный веб-мастер, я бы порекомендовал обратиться к вашему разработчику и запросить подробное описание параметров каждого веб-сайта, а также их соответствующих функций. Вполне возможно, что некоторые параметры утратили свое первоначальное назначение и больше не представляют существенной ценности для сайта.

Например, пользователей лучше идентифицировать по файлам cookie, чем по идентификаторам сеансов. Тем не менее, параметр sessionID все еще может существовать на вашем веб-сайте, поскольку он использовался исторически.

Или вы можете обнаружить, что пользователи редко применяют фильтры в вашей фасетной навигации.

Любые параметры, вызванные техническим долгом, должны быть немедленно устранены.

2. Не допускайте пустых значений

В URL-адреса включайте параметры только тогда, когда это необходимо для функциональности. Избегайте добавления пустых значений ключей в качестве параметров.

В приведенном выше примере ключ2 и ключ3 не добавляют значения ни в прямом, ни в переносном смысле.

3. Используйте ключи только один раз

Избегайте применения нескольких параметров с одинаковым именем и разными значениями.

Для опций с множественным выбором лучше объединить значения после одного ключа.

4. Параметры URL заказа

Если изменить порядок одного и того же параметра URL, страницы интерпретируются поисковыми системами как равные.

С точки зрения проблем с дублированием контента последовательность параметров не имеет значения. Однако изменение этих комбинаций может привести к расходованию краулингового бюджета и неравномерному распределению сигналов ранжирования.

Чтобы обеспечить согласованность, попросите своего разработчика создать сценарий, который упорядочивает параметры единообразно, независимо от последовательности, выбранной пользователем во время выбора.

С моей точки зрения, лучше всего начать с настройки параметров перевода, перейти к этапу идентификации, затем решить проблемы с нумерацией страниц и впоследствии применить фильтры и параметры сортировки/поиска. Наконец, следите за процессом.

Плюсы:

  • Обеспечивает более эффективное сканирование.
  • Уменьшает проблемы с дублированием контента.
  • Объединяет сигналы ранжирования на меньшем количестве страниц.
  • Подходит для всех типов параметров.

Минусы:

  • Умеренное время технической реализации.

Атрибут ссылки Rel=”Канонический”

Как опытный веб-мастер, я хотел бы поделиться некоторыми мыслями об атрибуте ссылки «rel=canonical». Проще говоря, этот тег указывает, что определенная страница имеет такое же или очень похожее содержимое с другой в Интернете. Тем самым он тонко намекает поисковым системам объединить сигналы ранжирования обеих страниц в URL-адрес, указанный как канонический. Это оптимизирует усилия по SEO и улучшает общую видимость выбранного URL-адреса в результатах поиска.

Чтобы оптимизировать ваши URL-адреса для поисковых систем (SEO), вы можете рассмотреть возможность установки канонической ссылки (rel=»canonical») на URL-адресах на основе параметров, которые указывают на ваш более удобный и управляемый URL-адрес. Это может быть полезно для таких задач, как отслеживание, идентификация или изменение параметров.

Как эксперт по SEO, я всегда гарантирую, что тактика применяется продуманно. Например, когда содержимое страницы параметров значительно отличается от канонической страницы — например, в случае нумерации страниц, результатов поиска, перевода или определенных параметров фильтрации — крайне важно соответствующим образом скорректировать мои стратегии, поскольку эти страницы могут не использовать одинаковый SEO. преимущества, как и их коллеги.

Плюсы:

  • Сравнительно простая техническая реализация.
  • Скорее всего, для защиты от проблем с дублированием контента.
  • Объединяет сигналы ранжирования с каноническим URL-адресом.

Минусы:

  • Бесполезное сканирование страниц параметров.
  • Подходит не для всех типов параметров.
  • Интерпретируется поисковыми системами как сильный намек, а не директива.

Мета-роботы Noindex-тег

Как специалист по цифровому маркетингу, я рекомендую добавить директиву noindex к любой веб-странице, которая не имеет SEO-ценности и основана на параметрах. Внедрив этот тег, мы можем запретить поисковым системам включать эти бесполезные страницы в результаты поиска, тем самым улучшая общую оптимизацию сайта.

Веб-сайты с URL-адресами, содержащими тег «noindex», могут нечасто сканироваться поисковыми системами, такими как Google, и, если их оставить неизменными в течение длительного периода, ссылки на эти страницы могут стать игнорируемыми или иметь статус «nofollow».

Плюсы:

  • Сравнительно простая техническая реализация.
  • Скорее всего, для защиты от проблем с дублированием контента.
  • Подходит для всех типов параметров, индексация которых не требуется.
  • Удаляет существующие URL-адреса на основе параметров из индекса.

Минусы:

  • Это не помешает поисковым системам сканировать URL-адреса, но будет стимулировать их делать это реже.
  • Не консолидирует сигналы ранжирования.
  • Интерпретируется поисковыми системами как сильный намек, а не директива.

Robots.txt Запретить

Проще говоря, файл robots.txt служит руководством для поисковых систем при посещении вашего сайта. Он определяет области, которые не следует искать или индексировать. Если поисковая система обнаружит в этом файле что-то запрещенное, она вообще пропустит эти отдельные разделы.

У вас есть возможность применить этот файл для ограничения доступа веб-сканеров ко всем URL-адресам на основе параметров с помощью команды «Disallow: /*?» или, альтернативно, ограничить доступ только к определенным строкам запроса, которые не должны включаться в результаты поиска.

Плюсы:

  • Простая техническая реализация.
  • Позволяет более эффективно сканировать.
  • Избегает проблем с дублированием контента.
  • Подходит для всех типов параметров, сканирование которых не требуется.

Минусы:

  • Не консолидирует сигналы ранжирования.
  • Не удаляет существующие URL-адреса из индекса.

Переход от динамических к статическим URL-адресам

Распространено мнение, что лучше по возможности избегать использования параметров URL-адреса для более упрощенного подхода.

Как специалист по цифровому маркетингу, я обнаружил, что организация контента по подпапкам, а не только на параметрах, помогает Google более эффективно понимать структуру наших веб-сайтов. Последовательное использование статических, удобных для ключевых слов URL-адресов уже давно является решающим аспектом моей стратегии SEO на странице.

Для этого вы можете использовать перезапись URL-адресов на стороне сервера для преобразования параметров в URL-адреса подпапок.

Например, URL-адрес:

www.example.com/view-product?id=482794

Стало бы:

www.example.com/widgets/purple

Этот метод эффективно работает для описательных параметров, ориентированных на ключевые слова, например тех, которые используются для категоризации элементов, продуктов или поисковых фильтров по характеристикам, релевантным для поисковых систем. Кроме того, это оказывается полезным для переведенного контента.

Однако проблемы возникают, когда дело доходит до аспектов фасетной навигации, не связанных с ключевыми словами, например, фиксированной цены. Поскольку такие фильтры постоянно встроены в URL-адреса для индексации, они не способствуют поисковой оптимизации (SEO).

Это также проблема с параметрами поиска, поскольку каждый пользовательский запрос будет создавать статическую страницу, которая конкурирует за рейтинг с канонической или, что еще хуже, представляет сканерам страницы с контентом низкого качества всякий раз, когда пользователь ищет элемент, который вы не предлагаете. .

Довольно необычно, хотя и не совсем неожиданно, учитывая использование WordPress, что такая структура используется для нумерации страниц, в результате чего получается такой URL-адрес.

www.example.com/widgets/purple/page2

Очень странно для переупорядочения, которое дает URL-адрес, например

www.example.com/widgets/purple/lowest-price

Статический параметр UTM обычно не распознается Google Analytics, что делает его непригодным методом для отслеживания.

С моей точки зрения как специалиста по SEO, простая замена динамических параметров статическими URL-адресами для таких элементов, как нумерация страниц, внутренний поиск по сайту или функции сортировки, не решает автоматически проблемы, связанные с дублированием контента, управлением бюджетом сканирования или уменьшением эффективности внутренних ссылок. .

Создавая все возможные комбинации фильтров из вашей фасетной навигации в виде индивидуально индексируемых URL-адресов, вы часто можете столкнуться с проблемами недостаточного контента. Это особенно актуально при работе с фильтрами с несколькими выборками.

Некоторые эксперты в области поисковой оптимизации считают, что вы можете обеспечить единообразный пользовательский опыт, избегая при этом проблем, связанных с SEO, используя такие методы, как использование POST вместо запросов GET для изменения содержимого страницы. Таким образом, пользовательский опыт остается неизменным и можно избежать потенциальных сложностей с SEO.

Удаление подобных параметров будет означать, что люди не смогут сохранять или делиться ссылкой на определенную страницу, что нецелесообразно для сохранения закладок или обмена контентом. Кроме того, это затрудняет отслеживание параметров и не идеально подходит для реализации нумерации страниц.

По сути, оптимизация многочисленных веб-сайтов для оптимального взаимодействия с пользователем и хорошей поисковой оптимизации часто требует стратегического использования параметров, поскольку полное их исключение может оказаться невозможным или нецелесообразным.

Вот более простой способ выразить это:

Плюсы:

  • Смещает фокус сканера с основанных на параметрах на статические URL-адреса, которые имеют более высокую вероятность ранжирования.

Минусы:

  • Значительные затраты времени на перезапись URL-адресов и 301-редирект.
  • Не предотвращает проблемы с дублированием контента.
  • Не консолидирует сигналы ранжирования.
  • Подходит не для всех типов параметров.
  • Может привести к проблемам с тонким контентом.
  • Не всегда предоставляет URL-адрес, на который можно ссылаться или добавлять в закладки.

Лучшие практики обработки параметров URL-адресов для SEO

Итак, какую из этих шести тактик SEO вам следует реализовать?

Ответ не может быть всем.

С точки зрения цифрового маркетинга, я бы выразил это так: по моему опыту, одновременная реализация нескольких стратегий SEO может привести к нежелательной сложности и, к сожалению, эти стратегии могут даже конфликтовать друг с другом, нанося потенциальный вред, а не пользу в целом. усилия по оптимизации.

Проще говоря, использование директивы robots.txt disallow означает, что Google не будет получать доступ ни к каким тегам «meta noindex» на веб-странице. Лучше избегать одновременного использования тега «meta noindex» и атрибута ссылки «rel=canonical».

В подкасте «Search Off The Record» эксперты Джон Мюллер, Гэри Илиес и Лиззи Сассман столкнулись с разногласиями по поводу лучшего метода решения проблем, связанных с параметрами при сканировании веб-страниц.

Они даже предлагают вернуть инструмент обработки параметров в консоль поиска Google. Гугл, если ты это читаешь, пожалуйста, верни это обратно!

Очевидно, что единого идеального решения не существует. В некоторых случаях приоритет эффективности сканирования над консолидацией авторитетных сигналов может быть более полезным.

В конечном счете, то, что подходит для вашего веб-сайта, будет зависеть от ваших приоритетов.

Лично я придерживаюсь следующего плана атаки для оптимизированной для SEO обработки параметров:

  • Изучите намерения пользователей, чтобы понять, какие параметры должны быть статическими URL-адресами, удобными для поисковых систем.
  • Реализуйте эффективную обработку нумерации страниц с помощью параметра ?page=.
  • Для всех остальных URL-адресов на основе параметров заблокируйте сканирование с помощью запрета в файле robots.txt и добавьте тег noindex в качестве резервного.
  • Дважды проверьте, что в XML-карте сайта не представлены URL-адреса на основе параметров.

Независимо от того, какой подход к управлению параметрами вы выберете для реализации, всегда записывайте влияние своей работы на ключевые показатели эффективности (KPI).

Смотрите также

2024-09-13 12:09

OpenAI утверждает, что новая модель «o1» может рассуждать как человек

Как опытный веб-мастер с более чем двадцатилетним опытом работы за плечами, я стал свидетелем эволюции моделей искусственного интеллекта от простой диковинки до мощных инструментов, которые могут превосходить людей в различных задачах. Однако, должен признать, заявления OpenAI об их последней модели o1 просто захватывают дух.


OpenAI недавно представила свою новейшую языковую модель, получившую название «Модель o1», подчеркивая улучшение своих сложных навыков решения проблем.

В недавнем заявлении компания утверждает, что их последняя модель O1 способна достигать эквивалентных результатов с людьми, когда дело касается математики, кодирования и оценки научных знаний.

Однако истинное влияние остается спекулятивным.

Чрезвычайные претензии

По данным OpenAI, производительность o1 исключительно высока: он входит в число 89% лучших соревнований по программированию, проводимых на Codeforces.

Компания утверждает, что их модель способна конкурировать на уровне, который позволит ей войти в число 500 лучших студентов по всей стране на престижном американском приглашенном экзамене по математике (AIME).

Более того, по данным OpenAI, o1 превосходит кандидатов наук по физике, химии и биологии, которые являются экспертами в своих областях, о чем свидетельствует комплексный экзамен, охватывающий эти предметы в совокупности.

Крайне важно относиться к таким замечательным утверждениям со здоровой дозой сомнения, пока они не пройдут тщательное изучение и практическую проверку.

Обучение с подкреплением

Предполагаемый прорыв — это процесс обучения с подкреплением, разработанный o1, предназначенный для того, чтобы научить модель разбирать сложные проблемы с использованием подхода, называемого «цепочкой мыслей».

Согласно OpenAI, эмулируя логическое мышление, подобное человеческому, внося при необходимости исправления и настраивая стратегии перед предоставлением решения, он утверждает, что модель o1 обладает расширенными способностями решения проблем, выходящими за рамки типичных языковых моделей.

Подразумеваемое

Неочевидно, как предполагаемая методология o1 улучшит понимание вопросов или получение ответов в таких областях, как математика, программирование, естествознание и другие технические предметы.

С точки зрения SEO все, что улучшает интерпретацию контента и возможность напрямую отвечать на запросы, может оказаться эффективным. Однако разумно проявлять осторожность, пока мы не увидим объективное стороннее тестирование.

Для OpenAI крайне важно выйти за рамки простого превосходства тестов и вместо этого предложить беспристрастные, поддающиеся проверке доказательства в поддержку своих утверждений. Интеграция возможностей модели o1 в ChatGPT во время реальных испытаний может помочь более убедительно продемонстрировать практическое применение.

Смотрите также

2024-09-13 02:08