Google внедряет отслеживание событий в один клик в GA4

Как опытный веб-мастер с более чем десятилетним стажем работы, я могу с уверенностью сказать, что эти последние обновления Google Analytics 4 (GA4) меняют правила игры! Рекомендации «Отметить как ключевое событие» и «Создать ключевое событие» упростили процесс выявления и отслеживания важных взаимодействий пользователей на моих сайтах.


Чтобы упростить настройку важных событий в Google Analytics 4 (GA4), Google представил два предложения по быстрой настройке: «Отметить как важное событие» и «Создать важное событие».

Вот простой способ перефразировать данное предложение: этот совет призван помочь вам быстро обнаружить и отслеживать важные действия пользователей на вашем веб-сайте.

Упростить процесс определения релевантных событий в вашем ресурсе Google Аналитики 4 теперь стало проще (и быстрее) благодаря двум уточненным рекомендациям.

«Выделить важное событие». Эта функция позволяет легко определять важные события, просто нажимая на них и отмечая их как важные.

«Создать ключевое событие»: предлагает…

— Google Analytics (@googleanalytics), 5 декабря 2024 г.

Ключевые события в GA4

Ключевые события в GA4 открывают доступ к более полезным отчетам и аналитике.

Отслеживая ключевые события, вы можете:

  • Получайте автоматическую аналитику и подробные отчеты о событиях
  • Измеряйте важные действия пользователей с помощью конверсий
  • Улучшите свои кампании Google Рекламы

Оптимизация процесса выявления важных взаимодействий с пользователем может быть трудоемкой, но предложения Google делают его более управляемым.

Благодаря этим обновлениям Google использует машинное обучение, чтобы выделять важные события на сайте и отслеживать их.

Отметить существующие события как ключевые

Использование функции «Выделить как значимое событие» позволяет быстро выявить значимые события для мониторинга, используя в качестве ориентира историческую информацию о вашем объекте.

В GA4 эти предложения можно легко просмотреть одним щелчком мыши. Отметив событие как важное, вы активируете расширенный мониторинг и отчетность.

Генерируйте новые ключевые события

Функция «Создать ключевое событие» позволяет создавать события, которые происходят при просмотре определенных веб-страниц, например страницы «Свяжитесь с нами».

Как специалист по цифровому маркетингу, я рад поделиться эффективным решением: Google может автономно настраивать и отмечать для вас значимые события, избавляя вас от необходимости ручной настройки!

Доступность

Рекомендации по ключевым событиям теперь доступны для всех ресурсов GA4.

Смотрите также

2024-12-07 00:08

Google: сосредоточьтесь на полевых данных для основных веб-показателей

Как опытный веб-мастер с более чем двадцатилетним стажем работы в цифровой сфере, я могу подтвердить постоянно развивающуюся среду оптимизации веб-производительности (WPO). Недавние обновления Google относительно Core Web Vitals и PageSpeed ​​Insights являются свидетельством постоянных усилий по улучшению пользовательского опыта.


Google подчеркивает важность использования подлинных пользовательских данных для оценки основных веб-показателей, а не только зависимости от тестовых данных таких инструментов, как PageSpeed ​​Insights (PSI) и Lighthouse.

Мы отправляем это уведомление, потому что собираемся изменить настройки контроля скорости (регулирование) в PSI, что должно повысить рейтинг скорости ваших веб-сайтов по оценке Lighthouse.

Полевые данные и лабораторные данные

Core Web Vitals измеряет производительность веб-сайта с точки зрения скорости загрузки, интерактивности и визуальной стабильности с точки зрения пользователя.

Полевые данные отражают реальный опыт пользователей, а лабораторные данные получены в результате тестов, проведенных в контролируемых средах с использованием таких инструментов, как Lighthouse.

Барри Поллард, специалист по веб-технологиям в Google, подчеркнул важность концентрации на реальных пользовательских данных.

В сообщении LinkedIn он заявил:

Сосредоточьтесь в первую очередь на улучшении раздела «Основные веб-показатели» в вашей области, связанной с PageSpeed ​​Insights. Используйте оценку Lighthouse в качестве общего индикатора, предлагая возможные улучшения производительности, если это необходимо, но не полагайтесь на нее для точных измерений.

Как эксперт по SEO, я часто использую Lighthouse Score для параллельного анализа двух оценок производительности, проведенных на одной и той же платформе Lighthouse. Этот инструмент незаменим при оценке и сравнении потенциальных улучшений и исправлений, обеспечивая оптимальную веб-оптимизацию.

Производительность — и, следовательно, показатели LH также ЯВЛЯЮТСЯ — сильно варьируются. На LH особенно влияет то, откуда он запускается (PSI, DevTools, CI…), а также множество других факторов.

Lighthouse — ОТЛИЧНЫЙ инструмент, но он также может проверять некоторые вещи только при определенных условиях.

Поэтому приятно видеть людей, заинтересованных в улучшении webperf, но убедитесь, что вы делаете именно это (улучшаете производительность), а не просто улучшаете показатели»

Предстоящие изменения в PageSpeed ​​Insights

Проще говоря, Поллард рассказал о беспокойстве пользователей по поводу медлительности серверов PageSpeed ​​Insights. Это может привести к тому, что тесты Lighthouse займут больше времени, чем ожидалось.

В ближайшие недели Google планирует скорректировать настройки регулирования в PageSpeed ​​Insights. Это изменение направлено на повышение рейтингов производительности после его внедрения.

Изменения, которые мы вносим, ​​повлияют как на наш веб-интерфейс пользователя, так и на API, однако они не окажут никакого влияния на другие версии Lighthouse.

Напротив, Поллард поясняет, что оценка 100 не означает совершенства, а скорее означает, что Lighthouse исчерпала свои возможности помощи.

Закон Гудхарта и производительность Интернета

Проще говоря, Поллард упомянул закон Гудхарта, который означает, что если что-то, что мы используем для оценки или отслеживания прогресса, становится именно тем, чего мы стремимся достичь, его полезность как эффективного средства оценки или отслеживания может уменьшиться.

С моей точки зрения как опытного веб-мастера, хотя повышение показателей Lighthouse, несомненно, полезно, концентрация исключительно на этих показателях не может гарантировать существенного улучшения реального взаимодействия с пользователем. Комплексный подход, учитывающий такие факторы, как время загрузки страницы, интерактивность и скорость реагирования, среди прочего, даст более многообещающие результаты с точки зрения удовлетворенности и вовлеченности пользователей.

Инструмент Lighthouse оказался полезным, однако его возможности ограничены оценкой определенных областей производительности только в рамках конкретных сценариев.

https://www.linkedin.com/watch?v=feed/update/urn:li:share:7270476783093788672

Алон Кохба, инженер по веб-производительности и программному обеспечению Wix, добавил контекст к обновлению, заявив:

Хотя оценки Lighthouse, возможно, и не являются главным приоритетом, они действительно важны, когда речь идет об оценке скорости страницы в PageSpeed ​​Insights.

Регулирование ЦП 4x -> 1,2x для моделирования мобильных устройств, чего долгое время не было».

Оценки Lighthouse, возможно, не самые важные, но это очень важно для оценок Lighthouse в PageSpeed ​​Insights.

4x -> 1,2x регулирование ЦП для моделирования мобильных устройств, чего долгое время не было.

— Алон Кохба (@alonkochba), 6 декабря 2024 г.

Ключевой вывод: уделяйте приоритетное внимание пользовательскому опыту

В процессе этого обновления владельцам веб-сайтов и разработчикам крайне важно уделять приоритетное внимание пользовательскому опыту, используя полевые данные, связанные с Core Web Vitals.

Хотя оценки Lighthouse могут помочь найти области для улучшения, они не должны быть единственной целью.

Google поощряет создание веб-сайтов, которые быстро загружаются, хорошо реагируют и визуально стабильны.

Смотрите также

2024-12-06 19:38

Google пытается справиться с неработающими каноническими текстами

Как опытный специалист по цифровому маркетингу с многолетним опытом работы в тонкостях поисковой оптимизации (SEO), я не могу переоценить важность правильной канонизации и последовательности в нашей работе. Недавнее интервью Search Off The Record с участием Аллана Скотта из команды поиска Google пролило ценную информацию о том, как Google решает потенциальные проблемы, связанные с неработающими или неправильными каноническими тегами.


На случай, если сегодня возникнет путаница в отношении кластеризации и канонизации, давайте рассмотрим сценарий, в котором вы можете допустить ошибку или ваша CMS неожиданно выйдет из строя, в результате чего она будет предоставлять Google неправильный контент. Учитывая важность последовательности и эффективного информирования об этом Google, полезно знать, что Google пытается управлять потенциально неработающими или вводящими в заблуждение каноническими URL-адресами.

Об этом говорилось в превосходном интервью Search Off The Record Аллана Скотта из команды Google Search, который специально занимается дублированием в Google Search. Мартин Сплитт и Джон Мюллер из Google взяли интервью у Аллана.

Примерно на 27 минуте 57 секунде Аллан обсудил некоторые исключительные сценарии и подход Google к их решению. По сути, Google прилагает усилия для управления неправильными или неуместными сигналами канонизации. Проще говоря, Аллан заявил, что у нас есть система, позволяющая взламывать тег «rel=’canonical’», когда мы подозреваем, что он может быть неправильным.

Вот что он сказал:

Когда я вижу людей, которые помещают мусор в поле rel=»canonical». Иногда сценарий идет не так, и вы можете увидеть это: «О, должна была быть какая-то оценка переменной, но этого не произошло». Вы видите что-то вроде $variable name или что-то в этом роде, а затем все rel=»canonical» на сайте внезапно указывают на имя хоста/переменную. Или, в другом случае, я видел, как люди просто оставляли поле пустым, и это имело смысл.

Поэтому я думаю, что парсер на самом деле превращает это в косую черту.

Это должен быть относительный путь. Но я думаю, что на самом деле это касается корня сервера. По сути, это то же самое, что сказать: «Пожалуйста, сотрите мой сайт, хорошо?» Вы должны быть очень осторожны. Я должен внести ясность здесь. У нас есть некоторая проверка, чтобы попытаться сломать rel=»canonical», когда мы считаем, что они неправы. Но это еще один айсберг. Например, у нас есть очень старая функция, на которую по сути опираются для этого, а новая функция, которую мы хотели бы использовать для этого, на данный момент находится в разработке уже много лет. Будет ли у нас когда-нибудь хорошая проверка rel=»canonical»? Не знаю, а между тем тот, что у нас есть, несовершенен и, если допускать ошибки, часть из них поймает, а часть пропустит.

Насколько я понимаю, полученные нами данные основаны в первую очередь на обычных ежедневных операциях, о чем свидетельствует интервью Google с Алланом Скоттом.

Вот видео:

Смотрите также

2024-12-06 16:44

Поиск в Google: как кластеризация работает с локализацией

Как опытный специалист по цифровому маркетингу с более чем десятилетним опытом работы за плечами, я не могу не чувствовать себя просвещенным и ошеломленным недавними открытиями Аллана Скотта о технологии кластеризации и локализации Google Search. Это все равно, что нырнуть с головой в темные глубины самого сложного айсберга SEO (каламбур) только для того, чтобы обнаружить, что верхушка айсберга — это только начало!


Что касается продолжающейся дискуссии о кластеризации и стандартизации в Google Search, Аллан Скотт из Google рассказал, как их система кластеризации взаимодействует с функциями геолокации. Однако важно отметить, что конкретная работа этой интеграции в некоторой степени зависит от контекста, поэтому давайте рассмотрим ее дальше.

Об этом говорилось в превосходном интервью Search Off The Record Аллана Скотта из команды Google Search, который специально занимается дублированием в Google Search. Мартин Сплитт и Джон Мюллер из Google взяли интервью у Аллана.

Во время интервью на 8:35 минуте Аллан объяснил, что когда дело доходит до понимания того, как кластеризация работает с локализацией, важно помнить, что мы видим лишь небольшую часть «айсберга локализации». Под поверхностью скрывается гораздо больший и более сложный аспект. Другими словами, его ответ предполагает, что способ взаимодействия кластеризации с локализацией зависит от факторов, которые не очевидны или не видимы сразу.

Проще говоря, концепции локализации и hreflang, как заявил Google, могут быть наиболее сложными аспектами поисковой оптимизации (SEO). Аллан объяснил, что если эти темы кажутся загадочными с внешней точки зрения, они в равной степени сбивают с толку и внутри. Он упомянул, что они уже довольно давно пытаются реализовать локализацию на практике, поскольку это очень сложная тема.

Как объяснил Аллан, Google делит локализацию на два основных типа. Первый тип предполагает простой шаблонный перевод, который часто можно увидеть на крупных сайтах социальных сетей, где контент остается неизменным. Второй тип — это полный перевод, при котором все содержимое страницы преобразуется в соответствии с целевым языком.

Аллан отметил, что стандартный или рутинный контент не является главным приоритетом для Google, он выразился так: «Мы не слишком сосредоточены на этом и не придаем этому большого значения». Однако другие формы контента действительно важны.

Аллан сказал:

Но страницы полного перевода не должны кластеризоваться, поскольку они имеют разные токены, которые они собираются получать для разных запросов, поэтому мы не хотим, чтобы они находились в одном кластере. Мы хотим, чтобы все эти страницы были доступны для поиска. Шаблонные переводы мы хотим поместить в один кластер. Это означает, что они будут консолидировать сигналы, но это также означает, что нам не нужно сканировать каждый вариант локализации, потому что, честно говоря, вы знаете, мы тратим впустую вашу пропускную способность и тратим при этом свое пространство. . Вот почему это зависит. Мы хотим решить эти проблемы двумя разными способами, и важно, какой из них вы делаете. А потом вы получаете действительно сложные ситуации, вроде того, что вы сказали, где они просто изменили цену. Эти становятся сложнее, потому что по сути это тот же контент, но за один токен. Но этот знак действительно имеет значение. И затем в этом случае с токенами мы все еще хотим, чтобы они были в разных кластерах. Теоретически это более сложная проблема, чем, как вы знаете, не поместить два варианта языка в один кластер. Но, знаете, именно поэтому локализация — это трудная задача.

Кроме того, помимо всей кластеризации для дублирования, здесь также используется hreflang. Аллан сказал:

На вершине всех этих разговоров о кластеризации, которая сама по себе является системой дублирования, есть hreflang, который по сути представляет собой отдельную систему, где, если вы добавите аннотации, мы попытаемся их заменить. Джон знает, что сейчас существует проект, который может быть запущен или не запущен к концу года и направлен на расширение охвата именно этого. Мы хотим предоставлять больше вариантов hreflang. Мы хотим использовать это больше, но нам необходимо внедрить механизмы, которые будут определять, насколько мы можем доверять этому сайту. По сути, мы проводим сканирование и проверку, чтобы определить, правильно ли этот сайт отображает свою карту, и если да, то мы постараемся обслуживать ее чаще, не обязательно проверяя ее так сильно, как в настоящее время мы это делаем.

Мое внимание привлекла следующая цитата: «Джону известно о текущем проекте, статус которого к концу года неясен, целью которого является, в частности, расширение его влияния. Google стремится предоставить большее количество вариантов hreflang.

В любом случае, эта тема продолжается, вот вставка, которую вы можете послушать:

Смотрите также

2024-12-06 16:44

Google мародерствует в черных дырах с помощью кластеризации и страниц ошибок

Как опытный специалист по цифровому маркетингу с более чем десятилетним опытом работы за плечами, я не могу не почувствовать смесь веселья и беспокойства, услышав о «мародирующих черных дырах» Google. Это похоже на бесконечную игру в «ударь крота», где, как только вы думаете, что устранили одну проблему, всплывает другая.


В связи с текущим обсуждением кластеризации и нормализации поиска Google Аллан Скотт из Google представил концепцию, которую он назвал «блуждающими темными дырами» в поиске Google. По сути, когда процесс кластеризации Google обнаруживает некоторые страницы с ошибками, они могут попасть в своего рода виртуальную яму в поиске Google.

В увлекательной беседе во время подкаста Search Off The Record мне выпала честь узнать мнение Аллана Скотта, члена команды Google Search, который специализируется на решении проблем дублирования в нашей поисковой системе. Интервью провели Мартин Сплитт и Джон Мюллер, также из Google.

Аллан пояснил, что некоторые «мародирующие черные дыры» возникают из-за неудачной связи между «страницами ошибок и кластеризацией». По сути, он заявил: «В некоторых случаях страницам ошибок непреднамеренно присваивается контрольная сумма, как и любой другой странице. Поскольку эти страницы затем группируются на основе своих контрольных сумм, они имеют тенденцию объединяться вместе, что может привести к слипанию страниц ошибок друг с другом. это имеет смысл на данный момент?

Мартин Сплитт из Google объяснил это так: «Он имел в виду ситуации, когда на сайте есть около 20 продуктов, которые больше не доступны, и вместо страницы с ошибкой отображается сообщение «товар недоступен». Эта страница по-прежнему возвращает HTTP 200, но на самом деле ее содержимое такое же, как и раньше, поэтому контрольная сумма остается неизменной. Это может привести к странным ситуациям.

Похоже, что Google считает эти страницы ошибок идентичными, поскольку они имеют одинаковые контрольные суммы.

Как опытный веб-мастер, я бы сказал это так: контрольная сумма — это компактный фрагмент информации, сгенерированный из большого фрагмента цифровых данных. Его основная роль — помочь выявить любые ошибки, которые могли возникнуть во время передачи или хранения данных. Хотя контрольные суммы отлично подходят для обеспечения целостности данных, они не проверяют подлинность самих данных.

Для Аллана заявление Мартина послужило иллюстрацией. Он подтвердил: «Действительно, это точное отражение моей точки зрения. На самом деле, в таком случае веб-мастер может не сильно беспокоиться, потому что, если эти продукты будут удалены навсегда, они предпочитают, чтобы они исчезли, поэтому это не является серьезной проблемой. Однако если они временно отсутствуют, это вызывает беспокойство, поскольку они, скорее всего, не появятся снова, поскольку сканеры не любят дубликаты. По сути, они думают: «Эта страница является дубликатом». .’ Вот почему он функционирует как черная дыра.

Эта информация потенциально может быть поглощена черной дырой, а это значит, что она больше не будет доступна или не замечена поисковыми алгоритмами Google в течение некоторого времени, хотя возможно, что она может появиться снова позже.

Аллан отметил, что только те элементы, которые находятся ближе всего к началу группы, вероятно, появятся снова.

Аллан, кажется, обеспокоен этой проблемой, поскольку он упомянул, что сайты с временными ошибками, такие как тот, который вы описали, для него в некотором роде похожи на намеренно созданные временные ошибки. Он объяснил, что это означает, что один раз из тысячи ваша система сообщит им об ошибке. Это может привести к появлению огромного количества мертвых страниц или к тому, что он назвал «мародерствующей черной дырой». Что еще хуже, он также обслуживает множество зависимостей JavaScript, заключил он.

Вот еще разговоры Аллана и Мартина по этому поводу:

Аллан:

Если их не удастся загрузить, это может привести к поломке вашего рендеринга, и в этом случае мы посмотрим на вашу страницу и подумаем, что она сломана. Фактическая надежность вашей страницы после прохождения этих этапов не обязательно будет очень высокой. Нам приходится сильно беспокоиться о том, чтобы такие мародерствующие скопления черных дыр не захватили территорию, потому что все просто выбрасывается.
в них, например, были сайты социальных сетей, где я просматривал, ну, вы знаете, самые известные профили, и под ними была просто куча страниц, некоторые из них сами по себе были довольно известными и просто не принадлежали к этому кластеру. .

Мартин:

Ох, боже. Хорошо. Ага. Я видел нечто подобное, когда кто-то проводил A/B-тестирование новой версии своего веб-сайта, а затем некоторые ссылки ломались с сообщениями об ошибках, потому что API изменился, и вызовы больше не работали, или что-то в этом роде. И тогда, примерно в 10% случаев, вы получите сообщение об ошибке практически для всего их контента. Да, думаю, выбраться из этого было непросто.

Джон Мюллер рассказал о случаях, когда это может быть проблемой с CDN:

Я также видел кое-что похожее на это: если перед сайтом есть какая-то CDN, CDN выполняет какое-то обнаружение ботов или обнаружение DDoS, а затем выдает что-то вроде: » О, похоже, ты бот», а Googlebot отвечает: «Да, я бот». Но тогда все эти страницы, я думаю, в конечном итоге будут сгруппированы вместе и, вероятно, на нескольких сайтах, верно?

Аллан подтвердил это и сказал, что Гэри Иллис из Google работал над этим здесь и там:

В принципе да. На самом деле Гэри кое-что разъяснил нам по этому вопросу. Знаете, мы сталкиваемся с такими случаями и стараемся привлечь поставщиков подобных услуг к сотрудничеству с нами или хотя бы к работе с Гэри. Я не знаю, что он с ними делает. Он отвечает за это. Но не все из них столь отзывчивы. Так что об этом следует знать.

Аллан сообщил, что лучший способ предотвратить попадание вашего сайта в тупиковые зоны Google, часто называемые «черными дырами», — это отправка соответствующих кодов ответа HTTP. Это означает, что если страница не найдена или доступ запрещен, используйте 404 или 403 соответственно. Для временных проблем используйте 503. Помните, что только страницы с кодом состояния 200 будут кластеризованы и потенциально могут оказаться в черной дыре.

Другой вариант, который сказал Аллан, был:

Другой вариант: если вы используете JavaScript foo, в этом случае вы не сможете отправить нам HTTP-код. Возможно, для этого уже слишком поздно. Что вы можете там сделать, так это попытаться обработать фактическое сообщение об ошибке, что-то, что очень заметно является ошибкой, например, вы знаете, вы можете буквально просто сказать, вы знаете, 503 — мы столкнулись с ошибкой сервера или 403 — вы не были авторизован для просмотра или 404 — мы не смогли найти правильный файл. Любая из этих вещей сработает. Знаете, вам даже не нужно использовать HTTP-код. Очевидно, вы могли бы просто сказать что-нибудь. Итак, у нас есть система, которая должна обнаруживать страницы с ошибками, и мы хотим улучшить ее отзыв по сравнению с тем, что она делает сейчас, чтобы попытаться решить некоторые из этих плохих рендерингов и этих ошибок, связанных с типами страниц, обслуживаемых ботами. Но в то же время, как правило, безопаснее взять все в свои руки и постараться убедиться, что Google как можно лучше понимает ваши намерения.

Они продолжают и говорят об этом, и все начинается где-то на 16:22 минуте — вот вставленное видео:

Смотрите также

2024-12-06 16:45