Google запускает страницы результатов поиска, организованные с помощью искусственного интеллекта

Как опытный эксперт по SEO с более чем двадцатилетним опытом работы в постоянно меняющемся ландшафте алгоритмов поисковых систем, я одновременно заинтригован и с осторожным оптимизмом смотрю на новые страницы результатов поиска Google, организованные с помощью искусственного интеллекта.


Google представляет страницы результатов поиска, организованные с помощью искусственного интеллекта, в США.

Эта предстоящая функция, дебют которой состоится на этой неделе, предоставит комплексный, индивидуальный набор результатов поиска в нескольких стилях, адаптированных специально для пользователя, на одной странице.

В объявлении Google говорится:

Начиная с этой недели мы представляем в США страницы результатов поиска, организованные с помощью искусственного интеллекта, начиная с предложений рецептов и рекомендаций по приготовлению блюд на мобильных устройствах. Теперь вам понравится обширная страница, наполненная персонализированными результатами, отвечающими вашим интересам. Одним касанием вы можете просмотреть различные типы контента, такие как статьи, видео, обсуждения и т. д., собранные вместе для удобного просмотра.

Ключевые особенности

Проще говоря, система искусственного интеллекта собирает ряд материалов, таких как сообщения в блогах, видео и обсуждения, для создания всеобъемлющей коллекции по различным темам.

В своем объявлении Google Ads:

Упорядочивая результаты поиска с помощью технологии искусственного интеллекта, мы предоставляем более широкий выбор типов контента и веб-сайтов, тем самым увеличивая шансы найти новый и интересный контент.

Последствия для отрасли

Поскольку Google подчеркивает преимущества страниц результатов поиска, организованных искусственным интеллектом, обновление вызывает ряд запросов:

  1. Поскольку ИИ определяет организацию контента, возникают опасения по поводу возможных предвзятостей в представлении информации.
  2. Новый формат может потребовать новых стратегий для обеспечения наглядности результатов, организованных ИИ.
  3. Неясно, как это изменение повлияет на видимость рекламы.

Это изменение может потребовать от нас переосмысления нашей тактики SEO. Возможно, нам придется изменить наши стратегии, чтобы наш контент можно было легко найти и правильно отобразить в этом новом макете.

Microsoft Bing недавно представила расширение возможностей своей поисковой системы генерировать ответы на сложные информационные вопросы. В отличие от Bing, Google выделяется реструктуризацией целых страниц результатов поиска.

На первом этапе особое внимание уделяется мобильным устройствам при ответе на вопросы о рецептах и ​​блюдах, что соответствует стратегии Google по определению приоритета мобильного контента.

Еще неизвестно, как эта функция будет реализована в поиске на рабочем столе.

Ответ Google на проблемы отрасли

Учитывая запросы, вызванные этим недавним обновлением, мы обратились к Google, чтобы получить разъяснения по различным важным аспектам.

Влияние на отслеживание в Search Console

О мониторинге результатов поиска, организованных искусственным интеллектом, в Google Search Console представитель Google пояснил:

В Search Console мы не изолируем трафик по индивидуальным характеристикам, но вы все равно сможете просматривать свой трафик из Поиска. Более подробную информацию о поддерживаемых типах результатов поиска можно найти в нашей документации.

Это означает, что, хотя подробные показатели для веб-страниц, управляемых ИИ, предоставляться не будут, администраторы веб-сайтов все равно смогут получать общую статистику посещений.

График расширения

Что касается вашего вопроса о том, когда эта конкретная функция будет распространена на дополнительные категории и местоположения, Google сообщил, что вскоре поделится более подробной информацией.

Во время первоначальной проверки мы отметили, что можем распространить эту функцию на другие области, такие как рестораны, фильмы, музыка, литература, проживание и магазины. На данный момент у нас нет никакой дополнительной информации для раскрытия.

Хотя это подтверждает планы расширения, Google не предоставил конкретных сроков для этих развертываний.

Руководство для SEO-специалистов и создателей контента

Google подчеркнул, что не требуется никаких корректировок в отношении использования новых инструментов или инструкций для улучшения контента для результатов поиска, основанных на искусственном интеллекте.

Как SEO-экспертам, так и создателям контента нет необходимости существенно менять свои стратегии. Новые страницы результатов поиска, организованные с использованием технологии искусственного интеллекта, тесно связаны с нашими фундаментальными принципами ранжирования и качества в поиске, которые мы усердно совершенствовали в течение многих лет, чтобы выделять первоклассную информацию.

Этот ответ предполагает, что существующие лучшие практики SEO должны оставаться эффективными для видимости в этих новых форматах результатов.

Заглядывая в будущее

Ответы Google вносят некоторую ясность, но также оставляют место для спекуляций.

Для экспертов по SEO отсутствие специального метода мониторинга веб-страниц, управляемых искусственным интеллектом, в Search Console потенциально может затруднить прямое измерение точного влияния этой новой функции на трафик их сайта.

Это решение о расширении деятельности в таких областях, как рестораны, кино, музыка, литература, жилье и розничная торговля предполагает широкомасштабное воздействие, которое может затронуть несколько секторов.

Несмотря на то, что Google выразил уверенность, специалисты по SEO могут разработать новые стратегии, поскольку они адаптируются к этому существенному изменению способа отображения результатов поиска.

Как эксперт по SEO, я буду внимательно следить за последними событиями и анализировать их последствия для вас в ближайшие месяцы. Будьте на шаг впереди, подписавшись на нашу рассылку новостей SEJ, чтобы получать своевременные обновления.

Смотрите также

2024-10-03 19:08

Введение в стратегию SEO для цифрового присутствия

Как опытный цифровой маркетолог с более чем десятилетним опытом работы за плечами, я могу с уверенностью сказать, что SEO было неотъемлемой частью моего пути. Это похоже на путешествие по лабиринту, постоянно меняющемуся, но захватывающе непредсказуемому.


Этот отрывок взят из книги под названием «Маркетинг в цифровых и социальных сетях: подход, ориентированный на результат» (под редакцией Алексея Хайнце, Гордона Флетчера, Аны Круз, Алекса Фентона, 2024 г.) с разрешения Routledge. . Содержимое ниже взято из главы «Использование поисковой оптимизации для повышения доверия», написанной в соавторстве с Алексеем Хайнце, старшим профессором бизнес-школы KEDGE, Франция.

Основное препятствие в поисковой оптимизации (SEO) заключается в том, что отличные позиции на страницах результатов поисковых систем (SERP) в первую очередь зависят от собственной методологии каждой поисковой системы для распознавания ценного контента и результатов, а это усилие, которое часто требует терпения с течением времени.

Первоначальный метод PageRank, представленный Google в 1999 году и основанный на количестве ссылок, ведущих на страницу как мере ее значимости, претерпел существенные изменения и больше не является общедоступным.

Поисковые системы часто модифицируют свои системы ранжирования, чтобы находить и показывать наиболее подходящий и первоклассный контент по конкретным поисковым вопросам. Например, Google ежегодно вносит в свою систему примерно 500–600 корректировок. (Источник: Гиллеспи, 2019 г.)

Этот список включает в себя изменения веб-сайта, аналогичные обновлениям, которые вы видите для Windows. Большинство этих изменений незначительны и имеют ограниченный эффект, но значительное количество важных основных обновлений ежегодно требуют тщательного изучения многих веб-сайтов, поскольку они могут привести к существенным изменениям на страницах результатов поисковых систем (SERP).

Поисковые системы постоянно совершенствуют свои технологии, используя искусственный интеллект, что позволяет им более эффективно находить первоклассный и подходящий контент. Они также экспериментируют с различными методами, чтобы предоставить пользователям наиболее подходящий контент.

В 2022 году дебют ChatGPT от Open AI ознаменовал появление нового конкурента на рынке, разрушив устоявшуюся структуру бизнес-модели традиционной поисковой системы (как описал Пула в 2023 году).

В такой динамичной среде важно быть в курсе изменений алгоритмов.

Вы можете добиться этого, отслеживая панель статуса поиска Google, читая статьи в блогах, посвященные SEO, и используя календарь изменений алгоритмов Moz в качестве справочного материала.

Как работают поисковые системы

Проще говоря, автоматизированный инструмент поисковой системы, часто называемый сканером, пауком, ботом или «роботом», исследует ссылки на веб-страницы. Затем он оценивает, стоит ли углубляться в анализ этих ссылок.

Затем бот собирает информацию по каждой предоставленной ссылке (и любым дополнительным ссылкам внутри них). Эту процедуру мы называем веб-сканированием или парсингом.

Поисковые боты могут впоследствии включать найденные веб-страницы в базу данных поисковой системы, позволяя им появляться в результатах, когда кто-то выполняет поиск.

То, как поисковые системы отображают ссылки на страницах результатов поисковой системы (SERP), определяется алгоритмом, который оценивает, насколько близко контент соответствует поисковому запросу пользователя.

Важность оценивается путем рассмотрения более 200 аспектов, включая отображаемый текст, связанные ключевые слова, расположение и связи между словами, ссылками, похожими терминами и значимыми понятиями (как объяснил Гарг в 2022 году).

Когда кто-то вводит вопрос или тему в поисковую систему, он получает набор предлагаемых ссылок на соответствующий контент, который, по мнению поисковой системы, соответствует его запросу — этот набор результатов известен как страница результатов поисковой системы (SERP).

Обычно страницы результатов поисковых систем (SERP) представляют собой смесь спонсируемых и неспонсируемых списков. В каждом листинге представлен краткий URL-адрес, заголовок и краткое описание, а также дополнительные функции, такие как миниатюрные изображения, видео и другие соответствующие ссылки на одном и том же веб-сайте.

Поисковые системы часто корректируют страницы результатов поиска (SERP), чтобы улучшить качество поиска для пользователя. Например, в Bing есть Bing Chat, который в качестве ответа позволяет взаимодействовать с их ботом с искусственным интеллектом.

Google представил «График знаний» — функцию, которая дает краткий ответ прямо под строкой поиска, появляясь рядом с обычными результатами поиска с правой стороны.

Как опытный веб-мастер, я столкнулся с уникальным преимуществом: он запускает то, что мы называем «поиск с нулевым кликом», явление, которое не проявляется в данных о нашем цифровом следе. Вместо этого эти экземпляры видны только при изучении данных, связанных с ранжированием контента на страницах результатов поисковых систем (SERP).

Некоторые фрагменты результатов поиска Google также могут отображаться в виде графика знаний (рис. 12.8) или фрагмента поиска (рис. 12.9).

Непредсказуемость результатов поисковых систем очевидна, когда один и тот же запрос возвращает разные результаты в зависимости от места, где он был выполнен.

Диаграммы для США (рис. 12.10) и Европы (рис. 12.11), помеченные как «лучшие диджеи», демонстрируют, как местоположение становится все более важным при определении рейтинга страниц результатов поисковых систем.

Персонализация также актуальна. Например, когда пользователь входит в продукт Google, история его браузера влияет на органические результаты поиска. Результаты поисковой выдачи меняются в зависимости от того, какие термины используются.

Это означает, что термин во множественном числе создает разные результаты поиска в результатах поиска, в которых используется этот термин в единственном числе.

Такие инструменты, как Semrush, предоставляют функции, которые могут быстро обнаружить волатильность рынка и помочь вам понять, в каких отраслях происходят изменения из-за этих изменений.

Среди последних инноваций Google — технология поиска (SGE), которая в настоящее время тестируется на рынке США. Это другой поиск, более наглядный и использующий искусственный интеллект.

Внедрение RankBrain и других алгоритмов еще в 2015 году значительно расширило возможности Google понимать человеческий язык и контекст, что сделало его более умелым в предоставлении релевантных результатов поиска.

Эти влиятельные источники, такие как Search Engine Roundtable и Search Engine Land, постоянно идут в ногу с постоянно меняющейся цифровой средой.

Внедрение поисковой оптимизации 

Определение ключевых поисковых фраз служит основой для создания структуры сайта и тем для вашего контента.

Используемые ключевые слова будут определять основную тему каждой веб-страницы и сообщения в блоге. В этом методе особое внимание уделяется техническим/внутренним, содержательным и внешним связующим элементам стратегии оптимизации сайта.

Основой любых усилий по поисковой оптимизации (SEO) является понимание истории организации, такой как ее цели, задачи и конкретный профиль аудитории, которому она обслуживает, который был тщательно установлен.

Начальный этап оптимизации веб-сайта для поиска Google включает в себя:

  1. Технический и контентный аудит.
  2. Идентификация и анализ ключевых слов.
  3. Внедрение любых изменений в систему управления контентом (CMS) и контент.
  4. Использование безопасного протокола HTTPS для веб-сайта.
  5. Отправка сайта в консоль поиска Google.
  6. Отправка веб-сайта в Bing Webmaster Tools.
  7. Отправка веб-сайта в другие соответствующие поисковые системы.
  8. Добавление на сайт кода отслеживания веб-сайта, такого как Google Analytics, Hotjar или других.

Сводка

SEO-оптимизация веб-сайта значительно повышает видимость организации в Интернете, а поскольку алгоритмы поисковых систем постоянно развиваются, они предлагают гибкие средства для решения насущных проблем, которые резонируют с конкретным профилем пользователя.

Это было сосредоточено на необходимости для организаций предлагать контент, который не только резонирует с потребностями личности, но и соответствует развивающимся критериям поисковых систем, таких как Google, Baidu или Bing.

Учитывая, что люди часто концентрируются исключительно на начальной странице результатов поиска (SERP), важно подчеркнуть это последующее соответствие. Чтобы обеспечить справедливость в поисковой оптимизации (SEO), желательно использовать методы «белого SEO», которые соответствуют правилам поисковых систем, а не полагаться на более сомнительные тактики.

Существует необходимость постоянного мониторинга и анализа любой деятельности по SEO.

Из-за постоянного развития алгоритмов поисковых систем, включающих искусственный интеллект и машинное обучение, очень важно понимать, что стратегия SEO — это не то, что вы просто устанавливаете и игнорируете. Вместо этого требуется постоянный мониторинг и корректировка, поскольку параметры могут быстро меняться.

Быть в курсе этих изменений и вносить соответствующие изменения жизненно важно для сохранения и улучшения вашей позиции в результатах поисковых систем.

В сфере SEO и более широких маркетинговых стратегий важно учитывать влияние цифровой деятельности на окружающую среду. Оптимизируя веб-сайты, мы не только придерживаемся лучших рекомендаций по SEO, но и способствуем устойчивому развитию.

Как опытный веб-мастер, я могу подтвердить, что поисковые системы предоставляют нам огромные хранилища данных – по сути, самые большие источники больших данных. Эта сокровищница информации позволяет нам более эффективно настраивать и фокусировать наши усилия по созданию контента, гарантируя, что наши стратегии адаптированы к предпочтениям и поведению интернет-пользователей.

Читатели SEJ могут воспользоваться эксклюзивной скидкой 20% на книгу в Routledge. Это предложение действительно до конца 2024 года, и вы можете использовать код скидки DSMM24, чтобы активировать его.

Смотрите также

2024-10-03 16:09

Спросите SEO-специалиста: как не дать результатам фильтрации съедать бюджет сканирования

Как опытный специалист по SEO с многолетним опытом работы за плечами, я могу с уверенностью сказать, что управление эффективностью сканирования вашего сайта имеет решающее значение для его общей производительности. Давайте углубимся в несколько практических советов, которые помогут вам ориентироваться в этих цифровых джунглях.


Сегодняшний вопрос SEO-вопрос поступил от Михала из Братиславы, который спрашивает:

«Один из моих клиентов управляет веб-сайтом, на котором есть фильтры местоположения на основе карты. Когда пользователи взаимодействуют с картой, генерируются уникальные URL-адреса со связанными фильтрами. К сожалению, эти URL-адреса не отображаются в карте сайта, но их примерно В консоли поиска Google записано 700 000 таких URL-адресов (не проиндексировано), что может отнимать слишком много бюджета сканирования веб-сайта.

Один из подходов может быть таким: давайте выработаем стратегию эффективного удаления этих URL-адресов. Вот план: сохранить исходный статус «индексировать, следить» для основного местоположения. Для вновь созданных URL-адресов в соседних областях измените настройки на «noindex, nofollow». Кроме того, пометьте соседние регионы каноническими ссылками, указывающими на базовое местоположение. И наконец, игнорируйте нежелательные ссылки с помощью инструмента «отклонить».

Отличный вопрос, Михал, и хорошие новости! Ответ прост в реализации.

Сначала давайте рассмотрим, как ваш подход может быть применим в таких отраслях, как электронная коммерция и издательское дело, тем самым расширяя его потенциальную полезность для более широкой аудитории. Впоследствии мы сможем углубиться в изложенные вами стратегии и в конечном итоге предложить работоспособное решение.

Что такое краулинг-бюджет и как создаются параметры, которые тратят его впустую

Если вы не уверены в том, что Михал подразумевает под «бюджетом сканирования», эксперты по SEO часто используют эту фразу для описания предела, за которым Google и другие поисковые системы перестают сканировать страницы веб-сайта.

Если бюджет сканирования расходуется на страницы с небольшой ценностью, небольшим содержанием или страницами, которые не могут быть проиндексированы, возможно, что ценные страницы и недавно созданные страницы могут не быть обнаружены в процессе сканирования.

Если они не обнаружены, возможно, они не будут обновлены или повторно просканированы. Если они не обновлены, они не будут генерировать для вас трафик для поисковой оптимизации (SEO).

Вот почему так важно оптимизировать краулинговый бюджет для повышения эффективности.

Михал продемонстрировал, что краткие URL-адреса с точки зрения поисковой оптимизации создаются по мере того, как клиенты применяют фильтры.

С точки зрения пользователя, этот опыт обогащает, однако, учитывая аспекты SEO, желательно иметь страницы, ориентированные на конкретное местоположение. Эта рекомендация справедлива как для платформ электронной коммерции, так и для издательских сайтов.

Розничные интернет-магазины могут ожидать, что покупатели будут искать товары по их цвету, например, красному или зеленому, или по категориям товаров, таким как одежда (например, футболки) и нескоропортящиеся товары (например, картофельные чипсы).

Они создают URL-адреса с параметрами, подобными фильтру поиска местоположений. Их также можно создавать, используя фильтры по размеру, полу, цвету, цене, вариациям, совместимости и т. д. в процессе покупок.

Отфильтрованные результаты помогают конечному пользователю, но напрямую конкурируют со страницей коллекции, и коллекция будет «тонкой» версией.

У издателей то же самое. Кто-то может находиться на SEJ и искать SEO или PPC в поле поиска и получить отфильтрованный результат. В отфильтрованном результате будут статьи, но категория публикации, вероятно, будет лучшим результатом для поисковой системы.

Отфильтрованные результаты могут быть проиндексированы, поскольку они публикуются на платформах социальных сетей, публикуются в виде комментариев в блогах или на форумах, которые устанавливают обратные ссылки, доступные для сканирования. Альтернативно, сотрудник службы поддержки клиентов может ответить на вопрос в блоге компании, или это может быть сделано множеством других способов.

Сейчас наша цель – убедиться, что поисковые системы не тратят время на сканирование «тонких» версий, чтобы вы могли максимально эффективно использовать свой бюджет на сканирование.

Разница между индексированием и сканированием

Прежде чем углубляться в предлагаемые концепции и средства защиты, давайте проясним ключевое различие: что отличает индексирование от сканирования.

Как опытный веб-мастер, я сталкивался с ситуациями, когда страницы сканируются поисковыми роботами (сканерами), но не появляются в результатах поиска (не индексируются). С другой стороны, проиндексированные страницы ранее проверялись этими ботами и, скорее всего, будут подвергнуты еще одному сканированию для проверки обновлений или ответов сервера.

Но не все проиндексированные страницы принесут трафик или попадут на первую страницу, поскольку они могут быть не лучшим возможным ответом на искомые запросы.

Теперь давайте перейдем к эффективному использованию краулингового бюджета для этих типов решений.

Использование Meta Robots или X Robots

Первоначальное предложение, которое сделал Михал, заключалось в использовании команды «‘index, Follow’». Эта инструкция сигнализирует поисковой системе о необходимости индексировать страницу и переходить по ее внутренним ссылкам. Хотя это может быть полезно, это эффективно только тогда, когда результат поиска обеспечивает оптимальный пользовательский опыт.

Насколько я вижу, это не так, поэтому я бы рекомендовал сделать его noindex,follow».

Возможно, эта страница не является основной, но вы можете продолжить изучение моего сайта, поскольку на нем много ценных страниц.

Если вы правильно настроили основное меню и внутренние навигационные ссылки, это должно побудить паука поисковой системы продолжить изучение этих связей.

Canonicals поможет решить проблему нерационального бюджета на сканирование

Канонические ссылки используются, чтобы помочь поисковым системам узнать, какую официальную страницу нужно индексировать.

Чтобы обеспечить последовательность и ясность, лучше всего назначить «официальной» версией только одну страницу продукта, даже если она существует по трем разным URL-адресам. Дубликаты страниц должны затем перенаправляться (каноническая ссылка) на эту официальную версию. И наоборот, официальная страница должна указывать на себя канонической ссылкой. Это правило применимо и к отфильтрованным местоположениям.

Если при поиске местоположения выдается несколько страниц городов или районов, вполне вероятно, что результат будет копировать официальную страницу, которая уже указана в вашей карте сайта.

Вместо того, чтобы связывать отфильтрованные результаты обратно сами с собой, когда контент остается идентичным исходной категории, направьте их на главную страницу для фильтрации, откуда они были первоначально получены.

Чтобы поисковые системы распознавали конкретную страницу как исходную или основную версию, когда она имеет схожий контент на различных локализованных страницах, направьте канонический тег на эту конкретную страницу, содержащую идентичные местоположения.

Вообще говоря, отфильтрованный или измененный результат обычно сохраняет исходную страницу, из которой он был получен. Поэтому каноническая ссылка уместна, чтобы вести на эту исходную страницу.

Если вы применяете «noindex», а также используете ссылающийся на себя канонический тег на той же странице, это создает ситуацию, когда эти две директивы SEO противоречат друг другу.

Когда кто-то ищет продукт по его названию на вашем сайте, результаты поиска могут конкурировать или даже затмить исходную страницу продукта или услуги.

Используя этот метод, вы, по сути, сообщаете пауку, что эту конкретную страницу следует исключить из процесса индексации, поскольку она не имеет существенной ценности для индексации. Однако это является официальной версией. Одновременное индексирование и исключение страницы может показаться необычным или нелогичным, но предлагается именно такой подход.

Вместо этого либо используйте каноническую ссылку, как обсуждалось ранее, либо не отображайте результат и вместо этого направьте каноническую ссылку на исходную версию.

Отклонить, чтобы повысить эффективность сканирования

Отказ не имеет ничего общего с эффективностью сканирования, если только пауки поисковых систем не находят ваши «тонкие» страницы через спам-обратные ссылки.

Использование инструмента отклонения от Google, по сути, позволяет вам сообщить: «Эти входящие ссылки сомнительны и потенциально опасны. Пожалуйста, не обращайте на них внимания при определении авторитетности нашего веб-сайта.

В большинстве случаев это не имеет значения, поскольку Google хорошо обнаруживает спам-ссылки и игнорирует их.

Не рекомендуется включать свой собственный веб-сайт и URL-адреса в инструмент отклонения, поскольку это может создать впечатление, что вы считаете свой сайт спамом или бесполезным для Google.

Кроме того, отклонение обратных ссылок не гарантирует, что паук поисковой системы будет игнорировать указанные ссылки при сканировании вашего веб-сайта, поскольку это просто указывает на то, что конкретную ссылку с другого сайта следует рассматривать как спам или нерелевантную.

Отказ не поможет повысить эффективность сканирования или сэкономить бюджет сканирования.

Как сделать бюджеты сканирования более эффективными

Ответ: robots.txt. Таким образом вы сообщаете конкретным поисковым системам и паукам, что сканировать.

Вы можете включить папки, которые вы хотите, чтобы они сканировали, обозначив их как разрешить, а также сказать «запретить» для отфильтрованных результатов, запретив знак «?» или символ «&» или любой другой, который вы используете.

Если вы хотите сканировать определенные параметры, включите соответствующие ключевые слова, такие как «‘?parameter=specific_value’» или конкретное имя параметра для эффективного извлечения данных.

Проще говоря, файл robots.txt помогает устанавливать маршруты для веб-сканеров и повышает их эффективность при навигации по вашему веб-сайту. После оптимизации этих путей крайне важно сосредоточиться на внутренних ссылках, которые представляют собой связи между различными страницами вашего сайта.

Они помогают паукам находить самые важные страницы и одновременно узнавать, о чем каждая из них.

Внутренние ссылки включают в себя:

  • Панировочные сухари.
  • Навигация по меню.
  • Ссылки внутри контента на другие страницы.
  • Меню подкатегорий.
  • Ссылки в нижнем колонтитуле.

Если ваш веб-сайт обширен, возможно, вам будет полезно реализовать карту сайта. Это особенно полезно, когда паукам поисковых систем сложно быстро найти ваши самые важные страницы.

«Я считаю, что эта информация должна прояснить ваш вопрос. Мне часто задают этот вопрос, так что вы определенно не одиноки, столкнувшись с этим затруднительным положением.

Смотрите также

2024-10-03 11:39

На сооснователя WordPress и Automattic подали в суд за попытку вымогательства

Как опытный адвокат с многолетним опытом работы за плечами, я должен сказать, что этот иск против Мэтта Малленвега и Automattic довольно странный. Обвинения ошеломляют — от фальшивых сертификатов в IRS до тайной передачи товарных знаков обратно Automattic и манипулирования некоммерческой организацией в коммерческих интересах. Это действительно запутанная паутина!


WP Engine, которому ранее запретили доступ к WordPress.org, инициировал федеральный иск против Мэтта Малленвега, одного из сооснователей WordPress и Automattic. В иске их обвиняют в попытке вымогательства, а также в стремлении разрешить предполагаемые нарушения прав на товарные знаки.

Основная цель этого федерального иска — не допустить причинения Mullenweg дальнейшего вреда WP Engine и сообществу WordPress, а также гарантировать, что Mullenweg и Automattic будут нести ответственность за невыполненные обещания и сомнительные действия. С юридической точки зрения под должностным преступлением понимается незаконное или неэтичное поведение, часто совершаемое кем-то, обладающим властью.

О чем идет речь в 98-страничном иске

Агрессивный подход Мэтта Малленвега и Automattic к WP Engine затронул не только нашу компанию, но и все сообщество WordPress в целом. Отношения между WordPress, его сообществом и компаниями, которые вкладывают значительные средства в расширение возможностей пользователей WordPress и способствуют росту экосистемы, процветают на доверии и приверженности открытости и свободе.

За последние десять дней действия Мэтта Малленвега выявили существенные конфликты интересов и проблемы управления. Если не решить эти проблемы, они потенциально могут подорвать доверие, на которое полагаются WP Engine, его сотрудники, партнерские агентства, клиенты и все сообщество WordPress. Следовательно, нам необходимо расследовать эти проблемы, чтобы защитить всех участников.

Умышленное нарушение деловых соглашений

Отказ в нарушении прав на товарный знак

Зачастую исход судебного процесса зависит от имеющихся доказательств, а иск WP Engine против Mullenweg и Automattic представляет доказательства, подтверждающие каждое выдвинутое требование.

В качестве иллюстрации можно привести судебное дело, доказывающее, что WP Engine не злоупотреблял и не нарушал товарные знаки, и Мулленвег ясно понимал, что WP Engine использовал оспариваемые фразы.

  • Членство WP Engine в программе Five for the Future является признанием того, что WPE не нарушает авторские права, поскольку одним из требований членства является отсутствие в настоящее время нарушений прав на товарные знаки.
  • Мэтт Малленвег публично признался в прямой трансляции X 26 сентября 2024 года, что он знал, что WP Engine использовал эти термины «в течение многих лет», но решил не предпринимать никаких действий.

Обвинение в ложных заявлениях в адрес штата Калифорния

Как опытный веб-мастер, я бы перефразировал это так: после официального перехода WordPress.org в некоммерческую организацию Mullenweg публично передал торговую марку WordPress WordPress Foundation. Однако обвинения предполагают, что он тайно передал права обратно Automattic посредством эксклюзивной сублицензируемой лицензии, тем самым сохранив контроль над торговой маркой WordPress. Этот секретный контракт между WordPress Foundation и Automattic лежит в основе обвинений в том, что Малленвег сделал вводящие в заблуждение заявления относительно права собственности на торговую марку WordPress штату Калифорния.

Мэтт Малленвег не раскрыл эксклюзивную лицензионную сделку между своей некоммерческой организацией (WordPress Foundation) и своей коммерческой компанией (Automattic) в отчетах правительства Калифорнии о налогах WordPress Foundation. Это было заявлено как отсутствие контрактов между фондом и кем-либо из его директоров или с любой организацией, в которой они имели финансовый интерес. Однако это заявление не было правдой, поскольку в то время Мулленвег был директором WordPress Foundation, а также имел финансовую долю в Automattic, компании, с которой Фонд согласился поделиться товарным знаком WordPress — потенциальный конфликт интересов, известный как корыстная деятельность, что противоречит федеральному налоговому законодательству.

Обвинение: Мулленвег дал ложные показания IRS

WP Engine также заявляет, что Малленвег сделал ложные заявления в IRS.

Похоже, что Малленвег не включил информацию о лицензионном соглашении в налоговые декларации WordPress Foundation, подаваемые в IRS. За последние четырнадцать лет федеральные отчеты, доступные IRS, не свидетельствуют о том, что WordPress Foundation получил какую-либо компенсацию за предоставление эксклюзивной, бессрочной, бесплатной лицензии на товарные знаки, которые, как теперь утверждают Ответчики, являются очень ценными. Интересно, что хотя Фонд никогда не раскрывал IRS о своем праве собственности на эти товарные знаки или о существовании эксклюзивной бесплатной лицензии на Automattic, в течение последних семи лет Малленвег сам подписывал формы IRS от имени Фонда под страхом наказания за дачу ложных показаний. , что может означать, что он предоставил Налоговому управлению США и общественности ложную информацию о точности и полноте налоговых форм Фонда.

Более того, судебное дело показывает, что в 2011 году Мулленвег представил налоговые документы, в которых указывалось, что общие активы WordPress Foundation составляли примерно 14 071 доллар, не раскрывая при этом ценных активов, таких как товарные знаки и другая интеллектуальная собственность.

Ложные заявления о владении товарными знаками

Одно из утверждений в исках заключается в том, что Мулленвег публично заявил ошибочно, что товарные знаки были переданы некоммерческому фонду WordPress, хотя на самом деле он тайно вернул права на товарные знаки обратно компании Automattic посредством эксклюзивной лицензии, допускающей сублицензирование. Исключительная сублицензируемая лицензия представляет собой соглашение, в котором первоначальный лицензиар (Mullenweg) дает разрешение другой стороне (Automattic) предоставить лицензию третьей стороне (сублицензиату).

Заявления и гарантии Ответчиков не выявили того, что, продвигая свой предполагаемый альтруистический акт по передаче этой интеллектуальной собственности от частной корпорации некоммерческой организации, Ответчики тайно предоставили Automattic безотзывные, эксклюзивные, безвозмездные права. в товарных знаках WordPress в тот же день в 2010 году. Следовательно, вопреки их утверждению о том, что они «независимы от какой-либо компании», контроль над товарными знаками WordPress все время оставался в ведении Automattic.

WP Engine утверждает, что остался верен обязательствам, взятым на себя, когда он начал свою деятельность в 2010 году как компания, специализирующаяся на WordPress, вложив в его развитие сотни миллионов долларов за последние 14 лет. Однако генеральный директор Automattic Мэтт Малленвег предположительно использовал свое положение для манипулирования WordPress против WP Engine, казалось бы, из личных недовольств, что нанесло значительный ущерб бизнесу WP Engine.

В обвинении также говорится о неожиданном предъявлении требования на значительную сумму, примерно десятки миллионов долларов, за лицензию на товарный знак (которую WPE оспаривает как ненужную). Более того, им было предоставлено всего 48 часов на то, чтобы решить, платить ли им или рискнуть быть отстраненными и потенциально запятнанными публично.

Утверждает, что Мулленвег контролирует WordPress Foundation в личных интересах

В иске также утверждается, что недавние события на WordCamp и последующие дни показали, что некоммерческая организация WordPress Foundation является организацией, которую Малленвег лично контролирует в своих собственных коммерческих интересах и в коммерческих интересах Automattic.

Недавние действия Мэтта Малленвега прояснили и подчеркнули давнюю практику сокрытия правды о его авторитете и влиянии как на WordPress Foundation, так и на wordpress.org. Хотя он изображает эти организации как некоммерческие «точечные организации», на самом деле они полностью находятся под его жестким контролем и управлением, и он использует их для продвижения своих коммерческих интересов в Automattic и связанных с ним предприятиях, потенциально ставя конкурентов в невыгодное положение. Ответчики.

Последствия судебного процесса

«Сегодня вечером я разговаривал с Жозефой. Я могу подтвердить, что ее больше нет в Automattic.

Она работает над заявлением для сообщества. Несмотря на все потрясения, у нее хорошее настроение».

Сегодня вечером я разговаривал с Жозефой. Я могу подтвердить, что ее больше нет в Automattic.

Она работает над заявлением для сообщества. Несмотря на все потрясения, у нее хорошее настроение.

— Джефф (@jeffr0), 3 октября 2024 г.

Прочитайте 98-страничный федеральный иск здесь: (PDF)

Смотрите также

2024-10-03 10:08

Google выпускает инструмент CrUX Vis Core Web Vitals

Крукс

Как веб-разработчик с многолетним опытом работы за плечами, я считаю, что новый инструмент CrUX Vis полностью меняет правила игры! Это все равно, что иметь личного тренера по производительности для моих веб-сайтов, который визуализирует тенденции и предоставляет всесторонний анализ, на сбор которого вручную у меня уйдут часы.


Новый инструмент основан на наборе данных CrUX, на котором основаны оценки Core Web Vitals.

Отчет об опыте пользователей Chrome, часто называемый сокращенно CrUX, представляет собой набор данных, демонстрирующих, как реальные пользователи Chrome взаимодействуют с известными сайтами в Интернете в реальных сценариях.

Набор данных CrUX служит официальным ресурсом инициативы Web Vitals и содержит все основные показатели производительности, ориентированные на пользователей, связанные с Core Web Vitals.

Данные CrUX собираются из реальных браузеров по всему миру на основе определенных параметров браузера, которые определяют право пользователя на участие. Собирается набор параметров и показателей, которые позволяют владельцам сайтов определить, как пользователи воспринимают их сайты.

Данные, собранные CrUX, доступны публично через ряд инструментов Google и сторонних инструментов и используются поиском Google для определения фактора ранжирования страницы.

В наш сбор данных включены не все источники или веб-страницы. У каждого источника (источника) и страницы есть свой набор требований для включения. Прежде всего, они должны быть легко доступны для общественности, и необходимо значительное количество посетителей, чтобы окончательный набор данных оставался статистически значимым.

Отладка основных веб-показателей

Как опытный веб-мастер, я могу засвидетельствовать, что улучшение показателей производительности вашего веб-сайта может не привести к немедленному повышению рейтинга SEO, которого некоторые могли ожидать, но позвольте мне прояснить его непреходящее значение. Достижение высоких показателей эффективности значительно увеличивает доходы, количество кликов по рекламе, конверсию, удобство для пользователей и популярность веб-сайта — по сути, каждую цель, которую SEO или издатель ставит перед своим сайтом. Хотя низкий показатель производительности не приведет к полному упадку вашего сайта, он, безусловно, не позволит полностью реализовать свой потенциал дохода.

Хотя инструменты Chrome Lighthouse могут создавать снимки производительности и оценивать оценки, им не хватает возможности показать, как производительность веб-сайта меняется с течением времени, или определить ключевые показатели производительности, которые указывают, улучшается или ухудшается производительность.

Крукс Вис

Последний инструмент Chrome называется CrUX Vis. Это инструмент для визуализации данных, который позволяет пользователям графически отображать данные пользовательского опыта Chrome (CrUX). С помощью CrUX Vis вы можете инновационным способом исследовать производительность веб-сайта и получить комплексное представление о статусе отдельных URL-адресов или веб-сайтов (называемых источниками).

Вы можете настроить различные аспекты отображаемого изображения с помощью элементов управления, расположенных в верхней части страницы. Эти элементы управления управляют данными, настройками устройства и периодами времени.

Скриншот элементов управления CrUX Vis

Сегментируйте данные по нескольким переменным

Как видно на скриншоте выше, данные можно сегментировать тремя способами:

  1. Данные
    Оценки производительности можно просмотреть по источнику (весь сайт) или по URL-адресу.
  2. Устройство
    Данные можно сегментировать и визуализировать по мобильным устройствам, данным и комбинированному представлению.
  3. Период (диапазон дат)
    В настоящее время инструмент позволяет визуализировать данные за 25 перекрывающихся периодов времени, охватывающих около шести месяцев. В настоящее время здесь показаны визуализации производительности с 17.03.2024 по 28.09.2024.

Пять представлений о метриках

Вы можете изучить данные, используя пять методов, которые включают в себя анализ основных показателей Интернета, группировку их по трем категориям или рассмотрение всех измерений вместе. Эти параметры анализа удобно расположены в левом меню пользовательского интерфейса рабочего стола.

  1. Основные веб-показатели
  2. Загрузка производительности
  3. Интерактивность
  4. Визуальная стабильность
  5. Все показатели вместе взятые

Визуализация данных

Визуализация Core Web Vitals показывает временной график тенденций, окрашенный в зеленый, желтый и розовый цвета. Зеленый — хорошо, а розовый — нет.

Три основных веб-жизненно важных элемента представлены кругом, квадратом и треугольником:

  • Круг = самая большая содержательная краска (LCP):
  • Квадрат = Взаимодействие со следующей отрисовкой (INP)
  • Треугольник = совокупный сдвиг макета (CLS)

На рабочем столе пользовательский интерфейс отображает диаграмму, иллюстрирующую тенденции, а также сводную информацию слева от нее, а подробное описание представлено справа.

Скриншот пользовательского интерфейса

На графике представлена ​​четкая и наглядная сводка тенденций основных веб-показателей, а также интерпретация закономерностей для каждого показателя.

Три вида тенденций:

  1. Хорошо и улучшается
  2. Хороший и стабильный
  3. Бедные и регрессирующие

Снимок экрана, показывающий производительность CWV

Как опытный веб-мастер, я хотел бы обратить ваше внимание на подробную разбивку данных, расположенную справа от графика тенденций. Каждая метрика в этом анализе представлена ​​отдельными значками — кружками, квадратами и треугольниками, что позволяет легко определить конкретные точки данных, которые вас интересуют больше всего.

Снимок экрана с пояснениями к данным

Загрузка производительности

Навигация по левой панели приведет вас к экрану «Производительность загрузки», на котором отображается дополнительный график тенденций, предоставляющий дополнительную статистику о скорости загрузки веб-сайта или определенного URL-адреса.

Он предлагает следующие шесть визуализаций:

  • Самая большая содержательная краска (LCP)
  • Первая содержательная краска (FCP)
  • Время до первого байта (TTFB)
  • Время туда и обратно (RTT)
  • Типы навигации
  • Форм-факторы

Снимок экрана с шестью вариантами визуализации

Рядом с каждым выбором есть переключатель:

При нажатии на переключатель отображается график тренда:

Остальные варианты демонстрируют аналогичную разбивку каждого вида показателей.

Новый инструмент CrUX Vis должен быть полезен издателям и интернет-маркетологам, которые хотят получить точные измерения эффективности веб-сайта, визуализированные как тенденция. Это полезно для исследования конкурентов и аудита веб-сайтов.

Проверьте это по адресу:

Крукс Вис

Смотрите также

2024-10-02 23:38