Реклама Google с изображениями и каруселью карт

Как опытный веб-мастер, многолетний наблюдающий и анализирующий цифровые тенденции, я должен сказать, что последний тест Google по форматам изображений, которые можно перелистывать, для Google Ads интригует. Имея опыт понимания поведения и взаимодействия пользователей, я вижу в этом формате потенциальный переломный момент в сфере онлайн-рекламы.


Google экспериментирует с новым стилем рекламы Google Ads, который предполагает прокрутку серии изображений, похожих на карусель. В конечном итоге этот процесс приводит к отображению карты. Нажав на карту, вы будете перенаправлены на профиль конкретной компании на Картах Google.

Это заметил Хушал Бервани, который поделился скриншотами и видео в действии на X.

Вот гифка:

Вот несколько скриншотов:

Вы можете увидеть пользовательский интерфейс с перелистываемыми точками на этих изображениях и картах.

Это похоже на рекламные карусели, о которых я говорил ранее – с увеличенными объявлениями Google и изображениями, которые можно пролистывать.

Вот пост на X с полным видео:

Google экспериментирует с различными макетами своих рекламных объявлений, состоящими из нескольких изображений, которые можно пролистывать. Кроме того, он включает в себя карту местности. Щелкнув по этой карте, вы попадете на Карты Google. @rustybrick

» Хушал Бхервани (@b4k_khushal) 30 сентября 2024 г.

Примечание: это было заранее написано и запланировано к публикации сегодня, в настоящее время я не в сети на Рош ха-Шана.

Смотрите также

2024-10-03 15:14

Google: SEO-специалисты могут помочь сформировать политику и решения клиентов с помощью ботов с искусственным интеллектом

Как опытный специалист по цифровому маркетингу с более чем десятилетним опытом работы в постоянно развивающейся сфере SEO и искусственного интеллекта, я полностью согласен с мнением Джона Мюллера. Пересечение этих двух областей действительно ставит нас в завидное положение, подобно опытному шеф-повару, который только что открыл для себя новую экзотическую специю, которая улучшает каждое приготовленное им блюдо.


Джон Мюллер из Google заявил, что специалисты по поисковой оптимизации находятся в выгодном положении благодаря их пониманию того, как работают сканеры поисковых систем, как управляются эти системы, а также их способности направлять своих клиентов в принятии обоснованных решений относительно их стратегий ИИ, когда они пересекают весь мир. развивающаяся среда ботов с искусственным интеллектом.

Джон Мюллер заявил в LinkedIn: «Конвергенция искусственного интеллекта и SEO дает прекрасную возможность техническим экспертам по SEO влиять на политику и решения своих клиентов, предоставляя рекомендации». Далее он пояснил, что, зная, как работают эти механизмы контроля, вы можете делать осознанный выбор и помогать другим принимать разумные решения.

Мне нравится, как он сформулировал следующую строку: «Robots.txt дает вам большой контроль (над разумными сканерами/использованиями — для необоснованных вам, возможно, придется копнуть глубже или использовать CDN/хостер, который позволяет блокировать их по типу запроса), вы даже можете запретить все в файле robots.txt по умолчанию, если хотите». Я имею в виду, он сказал не «полный контроль», а «большой контроль». Потому что нет, это не дает вам полного контроля. В некоторых случаях, если вы хотите заблокировать обзоры AI, вам необходимо заблокировать весь поиск Google. Существуют и другие боты и сканеры с искусственным интеллектом, не связанные с Googlebot. А еще есть бесчисленное множество перспективных механизмов искусственного интеллекта с ботами повсюду.

Джон написал больше, вот полный набор комментариев:

Это пересечение искусственного интеллекта и SEO дает всем вам (техническим SEO-специалистам!) прекрасное место, где вы можете помочь сформировать политику/решения для своих клиентов и вместе с ними. Вы знаете, как работают эти механизмы контроля, вы можете использовать их и помогать людям решить, что для них имеет смысл.

Файл robots.txt обеспечивает обширный контроль над веб-сканерами, позволяя легко управлять разумными поисковыми роботами и в то же время предоставляет возможности для более сложной обработки необоснованных. Некоторые службы хостинга или сети доставки контента (CDN) могут позволять вам блокировать определенные типы необоснованных запросов. Более того, при желании вы можете настроить файл robots.txt так, чтобы по умолчанию запрещался любой доступ. Я здесь, чтобы помочь вам в процессе принятия решений и обеспечить правильную реализацию этой настройки для вашего сайта.

Эти новые системы получают доступ к Интернету аналогично поисковым системам, и вы (я полагаю) знаете, как они работают и как ими управлять. Элементы управления аналогичны (иногда такие же) элементам управления поисковых систем, которые вы знаете, как они работают, и можете использовать их продуманно. То, что эти новые системы делают с данными, иногда сильно отличается, но этому можно научиться (кроме того, оно быстро меняется). Вы знаете, чего хотите от поисковых систем («зачем заниматься SEO? XYZ — вот почему»), вы можете экстраполировать оттуда, если новые системы дадут вам что-то сопоставимое, и использовать это, чтобы решить, как вы с ними взаимодействовать. Вы (в частности, как технический SEO-специалист) можете помочь в принятии этих решений, и вы определенно тот человек, который сможет их реализовать. (И, конечно же, ваша чистая техническая основа SEO упростит все, что делают эти новые системы: сканирование, внутренние ссылки, чистые URL-адреса, чистый HTML и т. д. — если вы решите пойти по этому пути.)

Наконец, я надеюсь, что у вас было достаточно возможностей часто выражать фразу «это зависит от конкретного случая», поскольку это служит краеугольным камнем для всех решений по решению технических проблем.

К вам приходят клиенты и спрашивают, как с этим бороться?

Примечание: это было заранее написано и запланировано к публикации сегодня, в настоящее время я не в сети на Рош ха-Шана.

Смотрите также

2024-10-03 15:14

Google тестирует поиск вместо раздела

Как опытный веб-мастер с многолетним опытом работы за плечами, я видел, как Google развивается, как цифровой феникс, восстающий из пепла. Последнее изменение, которое они тестируют, — замена «Люди также ищут» на «Искать вместо этого» — это изменение заголовка, которое мне кажется скорее семантическим, чем существенным.


Похоже, что Google экспериментирует с изменением метки поля «Люди также ищут» на поле «Искать вместо этого». Однако, судя по тому, что я вижу, это скорее изменение имени, чем существенное изменение функциональности, поскольку обе версии, похоже, предлагают схожие предложения, основанные на поисковых запросах пользователей.

Это заметил Пунит, который опубликовал об этом на Mastodon — вот его скриншот:

Вот что я вижу по этому запросу:

Ранее Google использовал заголовок «Поиск вместо», и мы собрали несколько изображений шестилетней давности, которые вы можете найти здесь:

И об этом здесь упоминалось 12 лет назад.

Примечание: это было заранее написано и запланировано к публикации сегодня, в настоящее время я не в сети на Рош ха-Шана.

Смотрите также

2024-10-03 15:13

Спросите SEO-специалиста: как не дать результатам фильтрации съедать бюджет сканирования

Как опытный специалист по SEO с многолетним опытом работы за плечами, я могу с уверенностью сказать, что управление эффективностью сканирования вашего сайта имеет решающее значение для его общей производительности. Давайте углубимся в несколько практических советов, которые помогут вам ориентироваться в этих цифровых джунглях.


Сегодняшний вопрос SEO-вопрос поступил от Михала из Братиславы, который спрашивает:

«Один из моих клиентов управляет веб-сайтом, на котором есть фильтры местоположения на основе карты. Когда пользователи взаимодействуют с картой, генерируются уникальные URL-адреса со связанными фильтрами. К сожалению, эти URL-адреса не отображаются в карте сайта, но их примерно В консоли поиска Google записано 700 000 таких URL-адресов (не проиндексировано), что может отнимать слишком много бюджета сканирования веб-сайта.

Один из подходов может быть таким: давайте выработаем стратегию эффективного удаления этих URL-адресов. Вот план: сохранить исходный статус «индексировать, следить» для основного местоположения. Для вновь созданных URL-адресов в соседних областях измените настройки на «noindex, nofollow». Кроме того, пометьте соседние регионы каноническими ссылками, указывающими на базовое местоположение. И наконец, игнорируйте нежелательные ссылки с помощью инструмента «отклонить».

Отличный вопрос, Михал, и хорошие новости! Ответ прост в реализации.

Сначала давайте рассмотрим, как ваш подход может быть применим в таких отраслях, как электронная коммерция и издательское дело, тем самым расширяя его потенциальную полезность для более широкой аудитории. Впоследствии мы сможем углубиться в изложенные вами стратегии и в конечном итоге предложить работоспособное решение.

Что такое краулинг-бюджет и как создаются параметры, которые тратят его впустую

Если вы не уверены в том, что Михал подразумевает под «бюджетом сканирования», эксперты по SEO часто используют эту фразу для описания предела, за которым Google и другие поисковые системы перестают сканировать страницы веб-сайта.

Если бюджет сканирования расходуется на страницы с небольшой ценностью, небольшим содержанием или страницами, которые не могут быть проиндексированы, возможно, что ценные страницы и недавно созданные страницы могут не быть обнаружены в процессе сканирования.

Если они не обнаружены, возможно, они не будут обновлены или повторно просканированы. Если они не обновлены, они не будут генерировать для вас трафик для поисковой оптимизации (SEO).

Вот почему так важно оптимизировать краулинговый бюджет для повышения эффективности.

Михал продемонстрировал, что краткие URL-адреса с точки зрения поисковой оптимизации создаются по мере того, как клиенты применяют фильтры.

С точки зрения пользователя, этот опыт обогащает, однако, учитывая аспекты SEO, желательно иметь страницы, ориентированные на конкретное местоположение. Эта рекомендация справедлива как для платформ электронной коммерции, так и для издательских сайтов.

Розничные интернет-магазины могут ожидать, что покупатели будут искать товары по их цвету, например, красному или зеленому, или по категориям товаров, таким как одежда (например, футболки) и нескоропортящиеся товары (например, картофельные чипсы).

Они создают URL-адреса с параметрами, подобными фильтру поиска местоположений. Их также можно создавать, используя фильтры по размеру, полу, цвету, цене, вариациям, совместимости и т. д. в процессе покупок.

Отфильтрованные результаты помогают конечному пользователю, но напрямую конкурируют со страницей коллекции, и коллекция будет «тонкой» версией.

У издателей то же самое. Кто-то может находиться на SEJ и искать SEO или PPC в поле поиска и получить отфильтрованный результат. В отфильтрованном результате будут статьи, но категория публикации, вероятно, будет лучшим результатом для поисковой системы.

Отфильтрованные результаты могут быть проиндексированы, поскольку они публикуются на платформах социальных сетей, публикуются в виде комментариев в блогах или на форумах, которые устанавливают обратные ссылки, доступные для сканирования. Альтернативно, сотрудник службы поддержки клиентов может ответить на вопрос в блоге компании, или это может быть сделано множеством других способов.

Сейчас наша цель – убедиться, что поисковые системы не тратят время на сканирование «тонких» версий, чтобы вы могли максимально эффективно использовать свой бюджет на сканирование.

Разница между индексированием и сканированием

Прежде чем углубляться в предлагаемые концепции и средства защиты, давайте проясним ключевое различие: что отличает индексирование от сканирования.

Как опытный веб-мастер, я сталкивался с ситуациями, когда страницы сканируются поисковыми роботами (сканерами), но не появляются в результатах поиска (не индексируются). С другой стороны, проиндексированные страницы ранее проверялись этими ботами и, скорее всего, будут подвергнуты еще одному сканированию для проверки обновлений или ответов сервера.

Но не все проиндексированные страницы принесут трафик или попадут на первую страницу, поскольку они могут быть не лучшим возможным ответом на искомые запросы.

Теперь давайте перейдем к эффективному использованию краулингового бюджета для этих типов решений.

Использование Meta Robots или X Robots

Первоначальное предложение, которое сделал Михал, заключалось в использовании команды «‘index, Follow’». Эта инструкция сигнализирует поисковой системе о необходимости индексировать страницу и переходить по ее внутренним ссылкам. Хотя это может быть полезно, это эффективно только тогда, когда результат поиска обеспечивает оптимальный пользовательский опыт.

Насколько я вижу, это не так, поэтому я бы рекомендовал сделать его noindex,follow».

Возможно, эта страница не является основной, но вы можете продолжить изучение моего сайта, поскольку на нем много ценных страниц.

Если вы правильно настроили основное меню и внутренние навигационные ссылки, это должно побудить паука поисковой системы продолжить изучение этих связей.

Canonicals поможет решить проблему нерационального бюджета на сканирование

Канонические ссылки используются, чтобы помочь поисковым системам узнать, какую официальную страницу нужно индексировать.

Чтобы обеспечить последовательность и ясность, лучше всего назначить «официальной» версией только одну страницу продукта, даже если она существует по трем разным URL-адресам. Дубликаты страниц должны затем перенаправляться (каноническая ссылка) на эту официальную версию. И наоборот, официальная страница должна указывать на себя канонической ссылкой. Это правило применимо и к отфильтрованным местоположениям.

Если при поиске местоположения выдается несколько страниц городов или районов, вполне вероятно, что результат будет копировать официальную страницу, которая уже указана в вашей карте сайта.

Вместо того, чтобы связывать отфильтрованные результаты обратно сами с собой, когда контент остается идентичным исходной категории, направьте их на главную страницу для фильтрации, откуда они были первоначально получены.

Чтобы поисковые системы распознавали конкретную страницу как исходную или основную версию, когда она имеет схожий контент на различных локализованных страницах, направьте канонический тег на эту конкретную страницу, содержащую идентичные местоположения.

Вообще говоря, отфильтрованный или измененный результат обычно сохраняет исходную страницу, из которой он был получен. Поэтому каноническая ссылка уместна, чтобы вести на эту исходную страницу.

Если вы применяете «noindex», а также используете ссылающийся на себя канонический тег на той же странице, это создает ситуацию, когда эти две директивы SEO противоречат друг другу.

Когда кто-то ищет продукт по его названию на вашем сайте, результаты поиска могут конкурировать или даже затмить исходную страницу продукта или услуги.

Используя этот метод, вы, по сути, сообщаете пауку, что эту конкретную страницу следует исключить из процесса индексации, поскольку она не имеет существенной ценности для индексации. Однако это является официальной версией. Одновременное индексирование и исключение страницы может показаться необычным или нелогичным, но предлагается именно такой подход.

Вместо этого либо используйте каноническую ссылку, как обсуждалось ранее, либо не отображайте результат и вместо этого направьте каноническую ссылку на исходную версию.

Отклонить, чтобы повысить эффективность сканирования

Отказ не имеет ничего общего с эффективностью сканирования, если только пауки поисковых систем не находят ваши «тонкие» страницы через спам-обратные ссылки.

Использование инструмента отклонения от Google, по сути, позволяет вам сообщить: «Эти входящие ссылки сомнительны и потенциально опасны. Пожалуйста, не обращайте на них внимания при определении авторитетности нашего веб-сайта.

В большинстве случаев это не имеет значения, поскольку Google хорошо обнаруживает спам-ссылки и игнорирует их.

Не рекомендуется включать свой собственный веб-сайт и URL-адреса в инструмент отклонения, поскольку это может создать впечатление, что вы считаете свой сайт спамом или бесполезным для Google.

Кроме того, отклонение обратных ссылок не гарантирует, что паук поисковой системы будет игнорировать указанные ссылки при сканировании вашего веб-сайта, поскольку это просто указывает на то, что конкретную ссылку с другого сайта следует рассматривать как спам или нерелевантную.

Отказ не поможет повысить эффективность сканирования или сэкономить бюджет сканирования.

Как сделать бюджеты сканирования более эффективными

Ответ: robots.txt. Таким образом вы сообщаете конкретным поисковым системам и паукам, что сканировать.

Вы можете включить папки, которые вы хотите, чтобы они сканировали, обозначив их как разрешить, а также сказать «запретить» для отфильтрованных результатов, запретив знак «?» или символ «&» или любой другой, который вы используете.

Если вы хотите сканировать определенные параметры, включите соответствующие ключевые слова, такие как «‘?parameter=specific_value’» или конкретное имя параметра для эффективного извлечения данных.

Проще говоря, файл robots.txt помогает устанавливать маршруты для веб-сканеров и повышает их эффективность при навигации по вашему веб-сайту. После оптимизации этих путей крайне важно сосредоточиться на внутренних ссылках, которые представляют собой связи между различными страницами вашего сайта.

Они помогают паукам находить самые важные страницы и одновременно узнавать, о чем каждая из них.

Внутренние ссылки включают в себя:

  • Панировочные сухари.
  • Навигация по меню.
  • Ссылки внутри контента на другие страницы.
  • Меню подкатегорий.
  • Ссылки в нижнем колонтитуле.

Если ваш веб-сайт обширен, возможно, вам будет полезно реализовать карту сайта. Это особенно полезно, когда паукам поисковых систем сложно быстро найти ваши самые важные страницы.

«Я считаю, что эта информация должна прояснить ваш вопрос. Мне часто задают этот вопрос, так что вы определенно не одиноки, столкнувшись с этим затруднительным положением.

Смотрите также

2024-10-03 11:39

На сооснователя WordPress и Automattic подали в суд за попытку вымогательства

Как опытный адвокат с многолетним опытом работы за плечами, я должен сказать, что этот иск против Мэтта Малленвега и Automattic довольно странный. Обвинения ошеломляют — от фальшивых сертификатов в IRS до тайной передачи товарных знаков обратно Automattic и манипулирования некоммерческой организацией в коммерческих интересах. Это действительно запутанная паутина!


WP Engine, которому ранее запретили доступ к WordPress.org, инициировал федеральный иск против Мэтта Малленвега, одного из сооснователей WordPress и Automattic. В иске их обвиняют в попытке вымогательства, а также в стремлении разрешить предполагаемые нарушения прав на товарные знаки.

Основная цель этого федерального иска — не допустить причинения Mullenweg дальнейшего вреда WP Engine и сообществу WordPress, а также гарантировать, что Mullenweg и Automattic будут нести ответственность за невыполненные обещания и сомнительные действия. С юридической точки зрения под должностным преступлением понимается незаконное или неэтичное поведение, часто совершаемое кем-то, обладающим властью.

О чем идет речь в 98-страничном иске

Агрессивный подход Мэтта Малленвега и Automattic к WP Engine затронул не только нашу компанию, но и все сообщество WordPress в целом. Отношения между WordPress, его сообществом и компаниями, которые вкладывают значительные средства в расширение возможностей пользователей WordPress и способствуют росту экосистемы, процветают на доверии и приверженности открытости и свободе.

За последние десять дней действия Мэтта Малленвега выявили существенные конфликты интересов и проблемы управления. Если не решить эти проблемы, они потенциально могут подорвать доверие, на которое полагаются WP Engine, его сотрудники, партнерские агентства, клиенты и все сообщество WordPress. Следовательно, нам необходимо расследовать эти проблемы, чтобы защитить всех участников.

Умышленное нарушение деловых соглашений

Отказ в нарушении прав на товарный знак

Зачастую исход судебного процесса зависит от имеющихся доказательств, а иск WP Engine против Mullenweg и Automattic представляет доказательства, подтверждающие каждое выдвинутое требование.

В качестве иллюстрации можно привести судебное дело, доказывающее, что WP Engine не злоупотреблял и не нарушал товарные знаки, и Мулленвег ясно понимал, что WP Engine использовал оспариваемые фразы.

  • Членство WP Engine в программе Five for the Future является признанием того, что WPE не нарушает авторские права, поскольку одним из требований членства является отсутствие в настоящее время нарушений прав на товарные знаки.
  • Мэтт Малленвег публично признался в прямой трансляции X 26 сентября 2024 года, что он знал, что WP Engine использовал эти термины «в течение многих лет», но решил не предпринимать никаких действий.

Обвинение в ложных заявлениях в адрес штата Калифорния

Как опытный веб-мастер, я бы перефразировал это так: после официального перехода WordPress.org в некоммерческую организацию Mullenweg публично передал торговую марку WordPress WordPress Foundation. Однако обвинения предполагают, что он тайно передал права обратно Automattic посредством эксклюзивной сублицензируемой лицензии, тем самым сохранив контроль над торговой маркой WordPress. Этот секретный контракт между WordPress Foundation и Automattic лежит в основе обвинений в том, что Малленвег сделал вводящие в заблуждение заявления относительно права собственности на торговую марку WordPress штату Калифорния.

Мэтт Малленвег не раскрыл эксклюзивную лицензионную сделку между своей некоммерческой организацией (WordPress Foundation) и своей коммерческой компанией (Automattic) в отчетах правительства Калифорнии о налогах WordPress Foundation. Это было заявлено как отсутствие контрактов между фондом и кем-либо из его директоров или с любой организацией, в которой они имели финансовый интерес. Однако это заявление не было правдой, поскольку в то время Мулленвег был директором WordPress Foundation, а также имел финансовую долю в Automattic, компании, с которой Фонд согласился поделиться товарным знаком WordPress — потенциальный конфликт интересов, известный как корыстная деятельность, что противоречит федеральному налоговому законодательству.

Обвинение: Мулленвег дал ложные показания IRS

WP Engine также заявляет, что Малленвег сделал ложные заявления в IRS.

Похоже, что Малленвег не включил информацию о лицензионном соглашении в налоговые декларации WordPress Foundation, подаваемые в IRS. За последние четырнадцать лет федеральные отчеты, доступные IRS, не свидетельствуют о том, что WordPress Foundation получил какую-либо компенсацию за предоставление эксклюзивной, бессрочной, бесплатной лицензии на товарные знаки, которые, как теперь утверждают Ответчики, являются очень ценными. Интересно, что хотя Фонд никогда не раскрывал IRS о своем праве собственности на эти товарные знаки или о существовании эксклюзивной бесплатной лицензии на Automattic, в течение последних семи лет Малленвег сам подписывал формы IRS от имени Фонда под страхом наказания за дачу ложных показаний. , что может означать, что он предоставил Налоговому управлению США и общественности ложную информацию о точности и полноте налоговых форм Фонда.

Более того, судебное дело показывает, что в 2011 году Мулленвег представил налоговые документы, в которых указывалось, что общие активы WordPress Foundation составляли примерно 14 071 доллар, не раскрывая при этом ценных активов, таких как товарные знаки и другая интеллектуальная собственность.

Ложные заявления о владении товарными знаками

Одно из утверждений в исках заключается в том, что Мулленвег публично заявил ошибочно, что товарные знаки были переданы некоммерческому фонду WordPress, хотя на самом деле он тайно вернул права на товарные знаки обратно компании Automattic посредством эксклюзивной лицензии, допускающей сублицензирование. Исключительная сублицензируемая лицензия представляет собой соглашение, в котором первоначальный лицензиар (Mullenweg) дает разрешение другой стороне (Automattic) предоставить лицензию третьей стороне (сублицензиату).

Заявления и гарантии Ответчиков не выявили того, что, продвигая свой предполагаемый альтруистический акт по передаче этой интеллектуальной собственности от частной корпорации некоммерческой организации, Ответчики тайно предоставили Automattic безотзывные, эксклюзивные, безвозмездные права. в товарных знаках WordPress в тот же день в 2010 году. Следовательно, вопреки их утверждению о том, что они «независимы от какой-либо компании», контроль над товарными знаками WordPress все время оставался в ведении Automattic.

WP Engine утверждает, что остался верен обязательствам, взятым на себя, когда он начал свою деятельность в 2010 году как компания, специализирующаяся на WordPress, вложив в его развитие сотни миллионов долларов за последние 14 лет. Однако генеральный директор Automattic Мэтт Малленвег предположительно использовал свое положение для манипулирования WordPress против WP Engine, казалось бы, из личных недовольств, что нанесло значительный ущерб бизнесу WP Engine.

В обвинении также говорится о неожиданном предъявлении требования на значительную сумму, примерно десятки миллионов долларов, за лицензию на товарный знак (которую WPE оспаривает как ненужную). Более того, им было предоставлено всего 48 часов на то, чтобы решить, платить ли им или рискнуть быть отстраненными и потенциально запятнанными публично.

Утверждает, что Мулленвег контролирует WordPress Foundation в личных интересах

В иске также утверждается, что недавние события на WordCamp и последующие дни показали, что некоммерческая организация WordPress Foundation является организацией, которую Малленвег лично контролирует в своих собственных коммерческих интересах и в коммерческих интересах Automattic.

Недавние действия Мэтта Малленвега прояснили и подчеркнули давнюю практику сокрытия правды о его авторитете и влиянии как на WordPress Foundation, так и на wordpress.org. Хотя он изображает эти организации как некоммерческие «точечные организации», на самом деле они полностью находятся под его жестким контролем и управлением, и он использует их для продвижения своих коммерческих интересов в Automattic и связанных с ним предприятиях, потенциально ставя конкурентов в невыгодное положение. Ответчики.

Последствия судебного процесса

«Сегодня вечером я разговаривал с Жозефой. Я могу подтвердить, что ее больше нет в Automattic.

Она работает над заявлением для сообщества. Несмотря на все потрясения, у нее хорошее настроение».

Сегодня вечером я разговаривал с Жозефой. Я могу подтвердить, что ее больше нет в Automattic.

Она работает над заявлением для сообщества. Несмотря на все потрясения, у нее хорошее настроение.

— Джефф (@jeffr0), 3 октября 2024 г.

Прочитайте 98-страничный федеральный иск здесь: (PDF)

Смотрите также

2024-10-03 10:08