Новые платформы не спасут социальные сети: вот что на самом деле меняется.

Люди начинают терять веру в крупные платформы социальных сетей. Также становится всё сложнее органически достигать аудитории – нельзя всегда рассчитывать на то, что ваши публикации будут увидены – и понимать, чего хотят пользователи, сложнее, чем когда-либо. Тем временем, новые социальные сети постоянно появляются, заявляя о предоставлении лучших решений и более целевой аудитории для таких предприятий, как ваше.

Несмотря на то, что эти новые платформы продвигаются как решения, они, вероятно, не устранят основные проблемы с социальными сетями. Проблема не в нехватке платформ, а скорее в фундаментальном способе работы социальных сетей – исторически построенном на привлечении внимания и использовании алгоритмов для определения того, что видят люди.

Социальные сети вряд ли изменятся благодаря одному большому новому приложению или функции. Вместо этого они будут развиваться в зависимости от *того, как*, *где* и *почему* люди общаются, становясь более фрагментированными и больше полагаясь на искусственный интеллект для связи пользователей. В этой статье рассматривается, почему меняется текущий ландшафт социальных сетей и как могут выглядеть социальные сети в 2026 году, чтобы помочь вам спланировать свою стратегию.

Трещины в современной модели социальных сетей.

Люди явно недовольны социальными сетями. Мы все быстро пролистываем контент, но уделяем ему меньше внимания. Онлайн-дискуссии часто либо отсутствуют, либо удивительно негативны, и многие пользователи, кажется, используют социальные сети просто для того, чтобы убить время, а не для того, чтобы по-настоящему общаться с другими.

Бренды тоже разочарованы, по схожим причинам. Платформы социальных сетей продолжают выделять простые метрики, такие как просмотры, лайки и вовлеченность, потому что их легко отображать и хвастаться ими. Однако эти цифры не всегда отражают то, что действительно важно для успеха бизнеса.

Если ваши усилия в социальных сетях напрямую не связаны с измеримыми результатами – такими как генерация лидов, продаж, назначений встреч или увеличение посещаемости – вы, вероятно, окажетесь в цикле публикации контента, его продвижения и создания отчетов, не зная, действительно ли это имело значение.

Люди, которые создают контент и управляют социальными сетями, также попадают в цикл постоянного создания. Сегодня существует ожидание бесконечного потока публикаций, и аудитория перегружена таким количеством информации. Это может означать, что они пропускают контент, который им действительно понравится или окажется полезным.

Доверие – это важная проблема для пользователей социальных сетей. Многие люди теряют веру в то, что они видят в интернете, из-за непоследовательной модерации контента, неясных правил и непредсказуемых изменений алгоритмов. Дезинформация распространяется быстро, и платформы часто реагируют слишком поздно, чтобы контролировать её. Это подрывает уверенность пользователей, и как только кто-то становится скептиком, трудно восстановить его доверие. Недавнее исследование показало, что 41% взрослых в США редко доверяют информации в социальных сетях, а 16% не доверяют ей вообще. Люди, как правило, не считают политики модерации эффективными или понятными.

С бизнес-точки зрения, вышеупомянутые проблемы усугубляются:

  • Органический охват продолжает снижаться.
  • Платное продвижение становится необходимостью, чтобы стать заметным и оставаться таковым.
  • Атрибуция сложна, особенно учитывая, что социальные сети не всегда легко привязать к кликам и доходу.
  • Нестабильность платформы затрудняет планирование будущего.

Простое создание нового приложения для социальных сетей или изменение внешнего вида не решит эти проблемы, и более частая публикация тоже не поможет. Реальные проблемы гораздо более фундаментальны – они проистекают из того, как спроектированы платформы социальных сетей и как они зарабатывают деньги.

Почему «Новые Платформы» Постоянно Обещают Одно и То Же Решение

Как цифровой маркетолог, я заметил закономерность: когда люди начинают громко выражать недовольство социальными сетями, появляется что-то новое. Обычно всё происходит так – появляется новая платформа, обещающая решить проблемы, на которые все жалуются. Они обычно сосредотачиваются на таких вещах, как отображение постов в порядке их публикации, уменьшение количества рекламы, улучшение модерации контента и создание более позитивных онлайн-бесед.

Эти идеи кажутся хорошими на бумаге, но история говорит нам, что большинство платформ в конечном итоге не выполняют их. По мере роста этих платформ те же проблемы, которые затрагивают социальные сети, продолжают усугубляться.

В конечном итоге, для развития платформы или сервиса необходим способ зарабатывать деньги. Но это часто означает зависимость от рекламы и вознаграждений, которые ставят во главу угла удержание внимания пользователей, даже если это происходит в ущерб качеству или продуманному контенту. Мы видим те же самые старые проблемы, просто переупакованные.

Изучение новых платформ по-прежнему стоит того, и некоторые, вероятно, добьются успеха в долгосрочной перспективе. Однако эти новые платформы не должны обещать решить все проблемы социальных сетей. Когда вы слышите подобные обещания, лучше всего быть скептиком, поскольку они часто преувеличены и редко выполняются.

Хорошо быть осторожным. Хотя новые платформы, такие как Tangle, стремятся приносить пользу, успешное управление сайтом социальных сетей обычно требует поиска способа заработка, а это часто включает стратегии монетизации.

Реальный сдвиг: от социальных платформ к социальным поверхностям

Социальные сети — это больше не только для обмена личными новостями. Всё чаще люди используют их, чтобы помочь себе решить, что купить, запрашивая мнения и советы у других перед совершением покупки. Ожидается, что эта тенденция продолжится и станет ещё более распространенной в ближайшие годы.

Google недавно начал показывать данные о производительности в социальных сетях в своей Search Console, что подтверждает, что социальные сети важны для того, чтобы быть обнаруженным в интернете – даже Google это признает.

Искусственный интеллект становится новым социальным слоем.

Искусственный интеллект, вероятно, начнет автоматически суммировать разговоры, выявлять важные тенденции и менять то, как мы видим и используем информацию – во многом так, как AI Overviews от Google уже делают, предоставляя краткие сводки в верхней части результатов поиска.

Вместо того, чтобы просматривать множество комментариев, чтобы понять, что думают люди, пользователи теперь видят сводки основных идей и мнений. Важная информация выделяется фразами, такими как ‘Вот что говорят люди’ и ‘Вот основные темы’, что значительно облегчает понимание сути разговора.

Добавление ИИ на платформы социальных сетей принесет как преимущества, так и недостатки. Это облегчит поиск ключевой информации, отсеивая большое количество комментариев. Однако это также может ограничить знакомство с различными точками зрения, поскольку менее распространенные или непопулярные мнения могут быть упущены из виду. Это может привести к потере важных деталей и не позволит услышать ценные перспективы. Когда алгоритмы сильно влияют на то, что видят люди, различные мнения рискуют быть проигнорированы.

Искусственный интеллект меняет социальные сети, влияя на то, как понимаются наши взаимодействия, какой контент мы видим и какие голоса наиболее заметны.

Как могут выглядеть социальные сети через 3-5 года

Социальные сети, вероятно, не будут выглядеть кардинально иначе на поверхности в будущем – вы все еще узнаете ленты и то, как все представлено. Однако, технология, которая лежит в основе всего этого, вероятно, изменится. Вместо того, чтобы пытаться предсказать, что именно произойдет, более полезно рассмотреть различные возможности.

Сценарий первый: Фрагментированные, специализированные сети.

Вместо нескольких доминирующих социальных сетей мы, вероятно, увидим появление множества более мелких платформ, каждая из которых будет предназначена для конкретных интересов или видов деятельности. Люди начнут использовать различные из этих платформ наряду с привычными гигантами, такими как Facebook и Instagram. Эти новые платформы могут быть сосредоточены на поиске местных мероприятий, профессиональном развитии, онлайн-шоппинге или связи создателей напрямую со своими поклонниками. Крупные платформы не исчезнут, но они будут делить пространство с этими более специализированными вариантами.

Сценарий второй: Социальные взаимодействия, опосредованные ИИ.

Ваши ленты будут сосредоточены на самом важном, предоставляя краткие обзоры и полезные предложения. Вместо просмотра длинных списков комментариев вы будете получать ключевые сведения напрямую. Искусственный интеллект будет изучать ваши предпочтения и автоматически находить информацию, адаптированную к вашим интересам, гарантируя, что вы видите наиболее релевантный и актуальный контент.

Сценарий Третий: Общение Без Социального Приложения

Люди больше не будут просто общаться в социальных сетях. Они смогут взаимодействовать через повседневные инструменты, такие как поисковые системы, карты, торговые площадки и рабочие приложения. Кроме того, когда клиенты решают, стоит ли что-то покупать, они смогут видеть отзывы и общаться с другими покупателями прямо на платформе – им не придется переходить на отдельные веб-сайты, чтобы получить эту информацию.

Эти ситуации не заставляют людей прекращать общаться – они просто меняют *как* и *где* происходят эти связи, уменьшая потребность в традиционных социальных сетях.

Что это значит для маркетологов

Традиционные стратегии социальных сетей больше неэффективны. Чтобы добиться успеха сейчас, маркетологам необходимо изменить свое мышление. Простое использование новейших платформ не гарантирует успеха. Важнее понимать, как ведут себя потребители и как социальные сети влияют на их выбор. Быть искренним и заслуживающим доверия, когда люди принимают решения, — это то, что действительно приводит к положительным результатам в социальных сетях.

Для маркетологов это означает, что вам следует:

  • Приоритезируйте создание релевантного контента, а не охват большей аудитории.
  • Инвестируйте в сигналы доверия, такие как ответы на как положительные, так и отрицательные отзывы, активное участие в онлайн-сообществах и демонстрация вашей экспертизы и авторитета в цифровом пространстве.
  • Измеряйте след, который вы оставляете, помимо лайков и показов. Начните думать о том, как можно измерить рассмотрение, подтверждение и действие.
  • Откажитесь от идеи постоянно достигать произвольных целей по показателям. Вместо этого создавайте значимые сообщения, чтобы порадовать и проинформировать вашу целевую аудиторию.
  • Развивайте мышление, направленное на участие; будьте проактивны и присоединяйтесь к обсуждению, когда и где это возможно.

Bottom Line: Социальные сети переписываются поведением, а не платформами.

Социальные сети никуда не денутся, но они стремительно меняются. Искусственный интеллект становится все более мощным и является движущей силой этих изменений, и это не собирается останавливаться.

Социальное взаимодействие больше не ограничивается типичными платформами социальных сетей. Оно теперь появляется в результатах поиска, сводках на основе искусственного интеллекта и небольших онлайн-сообществах, и часто не ощущается как традиционные социальные сети вообще – особенно с ростом искусственного интеллекта.

Как цифровой маркетолог, я видел слишком много брендов, отвлекающихся на погоню за последней модной платформой. Честно говоря, в этом больше нет реальных побед. Бренды, которые действительно преуспеют, — это те, кто сосредоточен на *том*, как меняются люди — где они проводят своё время в сети и как принимают решения. Речь идёт о понимании того, почему люди подключаются к определённым брендам, завоевании их доверия и присутствии там, где они на самом деле ищут информацию и подтверждение на протяжении всего процесса покупки. Речь идёт меньше о том, чтобы быть *на* каждой платформе, и больше о том, чтобы быть там, где находятся ваши клиенты, и строить искренние связи.

Социальные сети эволюционируют прямо сейчас, тонко меняясь вместе со всем, что мы делаем в интернете – с каждым кликом, каждым поиском и каждым изменением в нашем поведении.

Смотрите также

2026-02-25 16:11

AI-SEO — это проблема управления изменениями.

Попытки улучшить SEO с помощью ИИ, вероятно, столкнутся с трудностями не из-за самих ИИ-инструментов, а из-за того, насколько хорошо компании готовят свои команды и процессы. Исследования, проводившиеся более 25 лет с участием более 10 800 человек из различных отраслей, показывают, что самое большое различие между успешными и неуспешными изменениями заключается не в недостатке технических знаний, а в недостатке организационной готовности.

Что вы получите:

  • Почему проблемы внедрения AI SEO заключаются в людях и процессах, а не в технических аспектах.
  • Конкретные несоответствия, которые убивают AI-SEO инициативы до того, как тактики будут протестированы.
  • Последовательный подход, который преобразует вас из исполнителя в канале в организационного переводчика.

SEO на основе искусственного интеллекта полагается на такие технологии, как извлечение информации, добавление источников и создание ответов – принципиально иной подход, чем традиционный метод обхода веб-сайтов, индексации контента и ранжирования результатов. В отличие от предыдущих изменений в SEO, старые стратегии просто не работают хорошо с этой новой системой.

SEO на основе искусственного интеллекта представляет собой значительный сдвиг, выходящий за рамки простого изменения алгоритма. Это фундаментальное изменение в том, как работают поисковые системы и как люди ими пользуются.

Наша первая реакция обычно заключается в попытке применения конкретных техник – таких как уточнение запросов, добавление более подробной информации, использование специальных форматов для больших языковых моделей и поиск дополнительных источников для цитирования.

Эти подходы не обязательно неверны на данный момент, но со временем стратегии SEO, основанные на искусственном интеллекте, вероятно, дадут сбой. Проблема не в том, *как* они реализованы – а в том, что у компаний часто не хватает внутренней координации, необходимой для их последовательной работы.

1. Провал трансформации SEO с использованием ИИ на уровне выравнивания: вот как это выглядит.

Всем участникам ваших маркетинговых и руководящих команд необходимо переосмыслить то, что они знают о SEO, и это происходит в то время, когда люди уже чувствуют себя подавленными постоянными изменениями. В то время как те, кто занимается SEO годами, хорошо приспосабливаются, это не просто еще одно обновление – большие языковые модели представляют собой совершенно новый подход к поиску, поэтому всем необходимо узнать, как они работают.

И это, конечно, ошибка слоя выравнивания.

В AI SEO несоответствие имеет конкретные симптомы:

  1. Противоречивые определения успеха: Один заинтересованный хочет «позиции в ChatGPT». Другой хочет упоминания бренда. Третий хочет ссылочные цитаты. Четвертый хочет восстановление трафика. Каждый эксперимент оценивается по разным стандартам, и никто не договорился о том, что имеет наибольшее значение или как это будет измеряться. (Хотя наши исследования AI Overview и AI Mode подтверждают, что упоминания бренда ценнее цитирований.)
  2. Несоответствие метрик ожиданиям руководства: Руководители запрашивают увеличение трафика в условиях растущей нулевой кликабельности. Классические SEO-отчеты фокусируются на метриках влияния, а руководство видит снижение сессий и ставит под сомнение инвестиции. В опросе читателей нашей Growth Memo за декабрь 2025 года 84% респондентов заявили, что считают свой текущий подход к измерению видимости LLM неточным. Команды не могут доказать ценность, потому что никто не согласовал, как эта ценность должна быть доказана.
  3. Фрагментация усилий: Искусственный интеллект в SEO затрагивает SEO, контент, бренд, продукт, PR и (иногда) юридические вопросы. Без четкого владения и базового, согласованного понимания подхода вашего бренда к SEO с использованием ИИ, каждая команда проводит эксперименты в своей области. Никто не обобщает полученные знания. Конфликтующие тактики взаимно уничтожаются.
  4. Поспешные тактики без общей основы: Это выглядит как «Давайте протестируем промпты» без согласования того, что означает успех; «Давайте масштабируем AI-контент для смягчения потери кликов» без понимания ограничений AI-ассистированного и AI-сгенерированного контента; «Пусть SEO справится с AI», пока продукт, PR и юридический отделы остаются невовлеченными.
  5. Аварийное тестирование вместо стратегической переориентации: Команды применяют краткосрочные тактики реактивно, вместо того чтобы переориентировать весь корабль для достижения лучших долгосрочных результатов.

Это типичный пример того, как управление изменениями пошло не так: цели не были ясны, ни один человек или команда не были полностью ответственны, и люди не были мотивированы поддерживать изменения. Независимо от того, насколько хорошо все выполняется или насколько изобретательны корректировки, эти фундаментальные проблемы помешают успеху.

Простое добавление AI SEO инструментов и техник без плана адаптации людей приводит к выгоранию и истощению. Полагаться на тот же подход ‘сделаем как получится’, который работал раньше, будет недостаточно с этой новой технологией – нам нужен вдумчивый и организованный подход к изменениям.

2. Показатели неудач организационных преобразований остаются устойчиво высокими; AI SEO не является исключением.

The playbook for dramatically improving AI SEO strategy transformation success rates during a big landscape shift already exists: It’s called change management. (Lucky us, no additional guesswork needed).

Знание основ управления изменениями внутри компании важнее, чем когда-либо, с ростом AI в SEO, просто потому, что многие корпоративные рестайлинги не идут по плану или не достигают своих целей.

Ваши усилия по использованию ИИ для SEO похожи на любой другой проект, даже если влияние в настоящее время кажется ограниченным вашими маркетинговыми и продуктовыми командами. Это может еще не затронуть всю компанию или бренд.

Как цифровой маркетолог, я видел множество «следующих больших вещей», которые приходили и уходили, и AI SEO кажется одним из тех потенциально масштабных сдвигов в том, как мы подходим к брендингу и маркетингу. Но, честно говоря, история говорит нам, что большинство крупных отраслевых преобразований *не* достигают успеха. Десятилетия исследований показывают, что неудачи и неудовлетворительные результаты встречаются гораздо чаще, чем прорывы. Именно поэтому я понимаю, почему лидеры часто колеблются, когда я предлагаю им стратегии AI SEO – они уже проходили через это раньше и знают о рисках.

Исследования показывают, что большинство команд испытывают трудности как в улучшении, так и в поддержании этих улучшений во время больших изменений. Исследование McKinsey показало, что менее трети команд достигают этого, в то время как анализ BCG более 800 руководителей показал, что только 30% преобразований действительно успешны.

Исследования, проведенные несколькими ведущими консалтинговыми компаниями, неизменно показывают, что большинство усилий по организационным изменениям не достигают своих намеченных результатов.

Опираться только на мастерство будет недостаточно по мере развития нашей индустрии. Вам также необходимо адаптировать свой общий подход и эффективно управлять изменениями – думать, что вы можете добиться успеха без этого, нереалистично.

3. Структурированное AI-SEO управление изменениями может создать 8-кратный мультипликатор успеха.

The most powerful evidence for intentional change management for any initiatives – SEO, AI, or otherwise – comes from Prosci’s 12th Edition benchmarking study. (Prosci’s study is the largest body of change management research, covering 2,000+ practitioners, 400,000+ data cells, over 25 years of accumulated findings.)

Корреляция между качеством управления крупным сдвигом и успехом вашего проекта весьма значительна:

Как цифровой маркетолог, я своими глазами убедился, насколько важна качественная работа. Результаты действительно говорят сами за себя – переход от плохой кампании к отличной может привести почти к восьмикратному увеличению успеха! И даже просто улучшение ситуации с «плохой» до «удовлетворительной» может фактически учетверить ваши результаты. Это подчеркивает, почему инвестиции даже в умеренные улучшения могут окупиться с лихвой.

Исследование 2020 года, проведенное BCG, подтверждает эту идею, выделяя шесть ключевых факторов, которые могут значительно повысить шансы на успешную трансформацию – увеличив их с 30% до 80%.

  • Интегрированная стратегия с четкими целями: Здесь на помощь приходит тщательно разработанная AI SEO-стратегия, которая не только определяет цели роста, но и четкие тесты и то, как выглядят успешные результаты.
  • Приверженность руководства от генерального директора до среднего звена: Если вы консультант или агентство, этот шаг нельзя пропустить, особенно если у них есть внутренняя команда, помогающая в реализации стратегии.
  • Развертывание высококвалифицированных специалистов: Или, я бы сказал, высококачественное переобучение существующих специалистов – убедитесь, что все операторы имеют базовое общее понимание того, что изменилось в SEO, как работают выходы LLM, каковы цели бренда и как это будет реализовано.
  • Гибкое и оперативное управление: Команды должны иметь возможность справляться с индивидуальными задачами, не упуская из виду общие цели, включая быстрое устранение препятствий.
  • Эффективный мониторинг: Установите ключевые показатели эффективности (KPI), которые будут общепринятыми для оценки успеха, и фиксируйте предпринятые действия.
  • Современные/обновленные технологии: Вашей SEO-команде нужны правильные инструменты для достижения успеха, но им также необходимо знать, как эффективно их использовать. Не пропускайте выделение времени на интеграцию новых рабочих процессов и систем мониторинга искусственного интеллекта.

Маркетинговые команды, сосредотачивающиеся исключительно на технических аспектах или быстрых исправлениях SEO на основе ИИ, упускают огромную возможность – они могли бы достигать в восемь раз лучших результатов.

4. Ваши внутренние проблемы, связанные с «людьми-процессами», больше, чем напряженность между «инструментами-тактиками».

The most counterintuitive change-management findings for the tool-obsessed: The tech you use to carry out organizational-level changes matters far less than the people using it.

Не беспокойтесь о том, сможет ли ваш бренд справиться с такими вещами, как тестирование новых идей, изучение способов использования ИИ, организация данных и улучшение поиска информации с помощью ИИ. Это не основные проблемы, на которых вам следует сосредотачиваться.

Самая большая проблема заключается не в самой технологии, а в том, чтобы убедиться, что каждый в вашей команде – от руководителей до тех, кто выполняет работу – имеет общее понимание AI SEO. Это включает в себя *почему* вы переходите от традиционного SEO, *как* вы внедряете эти изменения, каким выглядит успешный результат и кто несет ответственность за его достижение.

5. Поддержка руководства, финансовые риски и как на самом деле выглядит согласованность.

Согласно 25 годам исследований Prosci, сильная и очевидная поддержка от лидеров компании является самым важным фактором для успешной реализации изменений – она упоминается в три раза чаще, чем что-либо другое. Если вы руководите усилиями по использованию AI для SEO, будь то для вашей собственной компании или для клиентов, вашим первым приоритетом должно быть привлечение этих лидеров.

SEO-лидер не может в одиночку изменить то, как компания использует ИИ для поиска. Согласно исследованию Bain 2024 года, успешное внедрение ИИ происходит, когда изменения возглавляются командами *внутри* организации, а не исходят сверху вниз.

Финансовые преимущества могут быстро расти, и компании, которые хорошо адаптируются к изменениям, часто наблюдают более высокую выручку. Исследование 600 организаций показало, что те, кто преуспел во внедрении изменений, испытали больший рост выручки, чем те, кто испытывал трудности.

Согласованность – это не просто ощущение; это наблюдаемый факт. Вы поймете, когда достигнете этой точки:

  • Заинтересованные стороны могут обсудить AI SEO, не зацикливаясь на инструментах.
  • Команды договариваются о том, что перестать приоритизировать (а не только о том, что начать).
  • Межфункциональные партнеры имеют четко определенные доли владения.

Выравнивание не происходит, когда:

  • Все согласны с «экспериментированием с» или «инвестированием в» видимость LLM, но никто не несет ответственности за результаты.
  • Успех определяется ретроспективно, или
  • Руководство спрашивает: «Что случилось с трафиком?», когда вы сообщаете о метриках влияния.

6. Ваша новая роль: от эксперта по каналам к агенту изменений

AI-SEO elevates the SEO professional’s role from channel executor to something more challenging: organizational translator.

Генеральный директор Stacker Ной Гринберг недавно поделился в LinkedIn, что первый шаг в использовании ИИ для SEO — это глубокое понимание вашей предметной области — станьте экспертом.

Новые обязанности:

  • Перевод новых, запутанных концепций поиска на основе искусственного интеллекта на простой язык (см. эту остроумную публикацию в LinkedIn от Lilly Ray в качестве идеальной иллюстрации).
  • Обучение заинтересованных сторон структурным различиям между классическими поисковыми системами и поиском с использованием LLM – помощь командам в объяснении, почему ваш генеральный директор не видит тот же LLM-вывод при поиске бренда, что и вы в отчёте.
  • Объяснение компромиссов, а не только возможностей.
  • Формирование ожиданий, которые сначала не понравятся руководителям, но которые им необходимо услышать (потеря трафика или более медленный рост по сравнению с предыдущими годами).

Это некомфортно. Меньше прямого контроля. Больше косвенного влияния. Более высокие ставки.

Ваше мышление – как агента изменений для ваших клиентов или организации – сосредоточено на трех принципах:

  1. Честность важнее уверенности. Что мы не знаем: точную ценность упоминания ИИ. Что мы знаем: отсутствие вашего бренда в результатах поиска по смежным темам — это измеримая потеря.
  2. Прогресс важнее совершенства. Согласованность не требует уверенности. Она требует общего признания неопределенности, согласия о том, что вы тестируете и как вы будете учиться.
  3. Перевод важнее трансляции. Одна и та же стратегическая задача требует адаптации для сотрудников (как меняется их работа), менеджеров (как они сообщают об успехе) и руководителей (как должны смещаться бюджеты). Единая коммуникация проваливается; переведенная коммуникация масштабируется.

7. Итог и что делать дальше: Практическая последовательность.

AI SEO is a product-level change forced on the industry – and on organic searchers – that requires a fundamentally different organizational response.

Сделай это в следующем порядке:

  1. Сформулируйте мандат AI SEO для вашей организации в одном предложении. Если вы не можете объяснить AI SEO одним предложением руководству, вы не готовы к реализации.
  2. Проведите полноценный SWOT-анализ. Определите существующие сильные стороны и недостатки вашей организации. Brand SEO scorecard от The Great Decoupling поможет вам в этом.
  3. Замените или дополните устаревшие ключевые показатели эффективности (KPI). Добавьте оценки видимости LLM наряду с классическими KPI (рейтинги, сеансы), чтобы начать переход. Отчетность по обоим показателям подтвердит необходимость смены модели, не отказываясь сразу от старой.
  4. Явно укажите межфункциональных владельцев. Кто отвечает за упоминания бренда в результатах LLM: SEO, PR или бренд-менеджмент? Кто отвечает за получение цитируемых ссылок: SEO или контент? Неопределенность – враг.
  5. Обеспечьте базовое образование на каждом уровне. ICs должны понимать, чем поиск с помощью LLM отличается от поиска по ползанию и ранжированию. Руководителям необходимо понимать, почему замедление органического трафика или отсутствие роста без кликов не означает отсутствие влияния.
  6. Устраните одну SEO-практику без боя. Успех означает, что все понимают, почему, и вы не получаете сопротивления. Если вы не можете отказаться от одной устаревшей тактики без внутреннего конфликта, вы не достигли согласованности.

Смотрите также

2026-02-24 18:12

Данные Web Almanac показывают, что плагины CMS устанавливают технические стандарты SEO (а не SEO-специалисты).

Поскольку большинство веб-сайтов используют системы управления контентом, большая часть фундаментальной работы для технического SEO уже выполняется автоматически. Такова была моя точка зрения при написании главы SEO для Web Almanac 2025 года, которую я написал в соавторстве.

Вместо того чтобы сосредотачиваться на том, как конкретные SEO-решения влияют на результаты, я хотел изучить более широкий вопрос: в какой степени базовые технические SEO-основы веб-сайта определяются используемой системой управления контентом (CMS) и инструментами, которые с ней работают?

SEO может погрязнуть в очень специфических деталях – таких как обработка дублирующегося контента, добавление структурированных данных, управление тем, как поисковые системы сканируют сайт, и настройка метаданных. Часто кажется, что мы относимся к каждому веб-сайту как к полностью индивидуальной сборке. Однако, поскольку более половины всех веб-страниц созданы на системах управления контентом (CMS), именно эти платформы фактически устанавливают стандарт того, как всё работает в интернете. Их встроенные настройки, ограничения и новые функции незаметно определяют, как выглядят и функционируют большинство веб-сайтов в большом масштабе.

Эта статья исследует это влияние, используя данные Web Almanac за 2025 год и HTTP Archive, в частности:

  • Как тенденции внедрения CMS соотносятся с основными техническими сигналами SEO.
  • Там, где экосистемы плагинов, кажется, формируют модели реализации.
  • И как распространяются возникающие стандарты, такие как llms.txt, в результате этого.

Настоящая проблема не в том, важны ли SEO-специалисты. Она в том, не упускаем ли мы из виду тех, кто действительно формирует облик сети сегодня.

Основа веб-дизайна

Web Almanac 2025 показал основную тенденцию: более половины всех веб-страниц теперь используют систему управления контентом (CMS). Чтобы понять масштаб, более 50% из проанализированных 16 миллионов веб-сайтов полагаются на CMS-платформы – значительная часть интернета.

Вероятно, ни для кого не будет сюрпризом, какие системы управления контентом (CMS) наиболее широко используются, но стоит рассмотреть, какие из них на самом деле наиболее влиятельны.

WordPress остаётся доминирующей системой управления контентом, хотя её использование немного снизилось в 2024 году. В то время как платформы, такие как Shopify, Wix, Squarespace и Joomla, значительно отстают, они всё ещё играют важную роль, особенно Shopify в мире онлайн-магазинов.

SEO-функции, которые поставляются по умолчанию в CMS-платформах

Настройки по умолчанию в системах управления контентом (CMS) имеют решающее значение, поскольку они часто включают в себя фундаментальные технические SEO-практики. Для большинства веб-сайтов – особенно тех, у которых нет выделенных SEO-экспертов – эти настройки по умолчанию фактически обеспечивают базовое SEO или предоставляют основу для тех, кто следует лучшим SEO-практикам.

Фраза ‘best practice’ может быть сложной, потому что не существует единого, общепринятого определения. Однако, на мой взгляд, я бы предложил следующее:

  • Описательные «SEO-friendly» URL-адреса.
  • Редактируемый заголовок и мета-описание.
  • XML sitemaps.
  • Канонические теги.
  • Изменение директивы Meta robots.
  • Структурированные данные – хотя бы базовый уровень.
  • Редактирование robots.txt.

Вот что предлагают основные системы управления контентом (CMS) в качестве стандартных настроек. Стоит отметить, что такие платформы, как Shopify, заявляют о своей эффективности в поисковой оптимизации (SEO), и хотя они в целом неплохи, многие эксперты по SEO не согласны и считают, что они не соответствуют достаточно высокому стандарту. Я не принимаю ничью сторону в этом споре, но и Shopify, и эти SEO-специалисты имеют веские аргументы.

CMS SEO-дружественные URL-адреса Заголовок и UI мета-описания XML карта сайта Канонические теги Robots meta support Базовая структурированная информация Robots.txt
WordPress Да Частичный (зависит от темы) Да Да Да Ограниченный (Статья, Запись в блоге) Нет (доступ к плагину или серверу не требуется)
Shopify Да Да Да Да Limited Ориентированный на продукт Ограничено (редактируется через robots.txt.liquid, ограничено)
Wix Да Guided Да Да Limited Basic Да (редактируется в интерфейсе)
Squarespace Да Да Да Да Ограниченный Basic Нет (управление платформой, отсутствие прямого контроля над файлами)
Webflow Да Да Да Да Да Ручной JSON-LD Да (редактируется в настройках)
Drupal Да Частичный (основной) Да Да Да Минимальный (расширяемый) Частичный (доступ к модулю или серверу)
Joomla Да Partial Да Да Да Минимальный Частичный (редактирование файла на уровне сервера)
Призрак Да Да Да Да Да Article Нет (только уровень сервера/конфигурации)
TYPO3 Да Partial Да Да Да Минимальный Частичный (на основе конфигурации или расширения)

В целом, большинство систем управления контентом (CMS) уже обрабатывают фундаментальные аспекты поисковой оптимизации (SEO). Работают ли эти встроенные функции *хорошо* для ваших конкретных потребностей или вы можете настроить их именно так, как вам нужно — это отдельные вопросы, которые я здесь не буду рассматривать. Но часто успех сводится к нескольким ключевым моментам:

  1. Возможно, что эти платформы могут быть использованы неправильно.
  2. Возможно, бизнес-логика, которая вам нужна, сломается/не будет работать с вышеперечисленным.
  3. Есть еще много продвинутых SEO-функций, которые не реализованы «из коробки», но которые так же важны.

Мы обсуждаем основные принципы и, оглядываясь на то, что было стандартом пятнадцать лет назад, становится ясно, что мы прошли долгий путь.

Отпечатки настроек по умолчанию в данных HTTP Archive

Поскольку многие системы управления контентом (CMS) уже включают эти SEO-настройки, влияет ли их использование на популярность этих CMS? Данные говорят о том, что да, и мы можем увидеть это в данных HTTP Archive.

Принятие канонических тегов коррелирует с CMS.

Изучая, как часто веб-сайты используют канонические теги наряду с общим использованием систем управления контентом (CMS) за последние четыре года, мы обнаружили сильную корреляцию между мобильными и настольными тенденциями. Они, как правило, движутся по схожим моделям.


Анализ корреляции Пирсона подтверждает сильную связь между использованием канонических тегов и наличием самоканонических URL-адресов.

Основное различие, которое мы наблюдаем, заключается в том, как мобильные и десктопные версии обрабатывают стандартизированные URL-адреса. На мобильных устройствах наблюдается заметная *отрицательная* корреляция, в то время как на десктопных она все еще положительная, но слабее. Это падение корреляции, по-видимому, связано с тем, что меньше страниц правильно стандартизируются, и выяснение *почему* это происходит оказывается сложной задачей.

Канонические теги необходимы для улучшения того, как поисковые системы видят ваш веб-сайт. Их растущая популярность, вероятно, совпадает с более широким использованием систем управления контентом (CMS).

Типы данных Schema.org соотносятся с CMS.

Анализируя, как часто используются различные типы Schema.org вместе с внедрением систем управления контентом (CMS), можно увидеть схожие закономерности, хотя данные и не столь однозначны. Несмотря на то, что существует множество типов Schema.org, сосредоточение внимания на наиболее релевантных для поисковой оптимизации (SEO) показывает общий рост использования.

В целом, системы управления контентом (CMS) и структурированные данные растут в использовании примерно с одинаковой скоростью. Единственная разница заключается в данных Schema.org WebSite, которые демонстрируют немного отличающуюся закономерность.

В то время как многие веб-сайты используют системы управления контентом (CMS), использование разметки Schema.org встречается гораздо реже. Вероятно, это связано с тем, что большинство CMS-платформ не автоматически включают подробный код Schema.org. Рассмотрение конкретных примеров CMS покажет более четкую связь между использованием CMS и внедрением Schema.org.

Несмотря на то, что Schema.org существует, он пока не используется последовательно во всей сети. Учитывая это ограниченное внедрение, если бы я создавал поисковую систему или инструмент поиска на основе искусственного интеллекта, я бы не стал полагаться на то, что все его используют.

Robots.txt

Потому что robots.txt полагается на один стандартизированный файл, поэтому, скорее всего, он будет использоваться более широко, чем Schema.org, который сложнее в реализации.

Наличие файла robots.txt имеет решающее значение, прежде всего для контроля над тем, к каким частям вашего веб-сайта имеют доступ поисковые системы. Мы заметили изменение – как подчеркнуто в разделе SEO Web Almanac за 2025 год – когда robots.txt все чаще используется для более широкого управления веб-сайтом, а не только для технического обслуживания. Это изменение особенно заметно с ростом поисковых систем на базе искусственного интеллекта.

Прежде чем углубляться в сложные настройки, давайте посмотрим, как системы управления контентом (CMS) помогают создавать файлы robots.txt. Данные за последние четыре года показывают, что платформы CMS сейчас отвечают за гораздо больший процент успешно загружаемых файлов robots.txt – то есть они возвращают ответ ‘200 OK’.

Интересно, что анализ файлов robots.txt показывает закономерность: веб-сайты, не построенные на системах управления контентом (CMS), как правило, имеют гораздо более крупные файлы robots.txt.

Существует несколько возможных причин для этого. Возможно, некоторые веб-сайты построены на платформах, отличных от систем управления контентом (CMS), обрабатывают более крупные файлы или используют пользовательские настройки. Однако, ключевой фактор часто упускается из виду: платформы CMS обычно обеспечивают наличие правильно отформатированных и валидных файлов robots.txt, которые помогают поисковым системам эффективно сканировать сайт.

Многие веб-сайты возвращают стандартное подтверждение (200 OK) при запросе файла robots.txt, но часто эти файлы на самом деле не являются текстовыми файлами или ведут на страницы ошибок. Если мы сосредоточимся только на файлах, которые правильно описывают, как поисковым роботам разрешено получать доступ к сайту, ситуация выглядит совсем иначе.

Около 14% файлов robots.txt, найденных на веб-сайтах, которые не используют системы управления контентом (CMS), на самом деле не являются валидными файлами robots.txt.

Создание файла robots.txt достаточно простое, но требует от вас сознательного выбора. Если вы его не настроите, его просто не будет. Использование системы управления контентом (CMS) повышает вероятность наличия файла robots.txt, и что важно, значительно упрощает его обновление и поддержку – и это действительно важно.

Настройки по умолчанию для WordPress

Как цифровой маркетолог, я обнаружил, что в то время как большинство систем управления контентом (CMS) справляются с базовыми задачами веб-сайта, получение действительно эффективного SEO часто требует дополнительных инструментов. Это расстраивает, потому что такие вещи, как оптимизация ключевых слов и подробная аналитика *должны* быть встроены, но часто этого нет – вам все равно нужно добавлять их.

Анализ веб-сайтов, использующих WordPress, с данными из HTTP Archive будет наиболее эффективным подходом, поскольку он предоставляет самый большой набор данных. Кроме того, данные Wapalizer предлагают надежный метод оценки того, насколько хорошо различные SEO инструменты работают с WordPress.

Из Web Almanac мы можем увидеть, какие SEO инструменты наиболее установлены на сайтах WordPress.

Если вы работаете в SEO, это, вероятно, не станет для вас неожиданностью. Многие SEO-специалисты, использующие WordPress, вероятно, использовали один из трех ведущих SEO-плагинов. Однако стоит отметить, что, хотя Yoast SEO является самым распространенным плагином в наших данных, он встречается только на чуть более чем 15% веб-сайтов. Это означает, что даже самый популярный плагин для самой популярной платформы веб-сайтов все еще не используется на огромной части сайтов.

Давайте начнем с изучения настроек по умолчанию этих трех ведущих плагинов. Хотя они имеют некоторые сходства с встроенными функциями WordPress, эти плагины предлагают более широкий спектр расширенных опций сразу из коробки.

SEO-оптимизация Все-в-одном SEO Yoast SEO Rank Math
Управление тегом заголовка Да (глобально + для каждой записи) Да Да
Управление мета-описанием Да Да Да
Meta robots UI Да (index/noindex и т.д.) Да Да
Default meta robots output Явный индекс, следовать Явный индекс, следовать Явный индекс, следовать
Канонические теги Автоматическое самоканоническое определение. Автоматическое самоканоническое. Автоматическое самоканоническое определение.
Каноническая перезапись (для каждого URL) Да Да Да
Обработка канонической пагинации Ограниченный Исторически предвзятый Более настраиваемый
Генерация XML-карты сайта Да Да Да
Фильтрация URL-адресов карты сайта Basic Basic Более детализированный
Включение URL-адресов noindex в sitemap Возможно по умолчанию Исторически правдоподобный Настраиваемый
Robots.txt editor Да (управляемый плагином) Да Да
Комментарии/подписи к Robots.txt Да Да Да
Управление редиректами Да Ограниченная (бесплатная) Да
Разметка хлебных крошек Да Да Да
Структурированные данные (JSON-LD) Да (шаблон) Да (шаблон) Да (шаблонный, широкий)
UI выбора типа схемы. Да Ограниченный Extensive
Стиль вывода схемы Специфичный для плагина Специфично для плагина Специфичный для плагина
Анализ/оценка контента Basic Heavy (читабельность + SEO) Heavy (SEO score)
Руководство по оптимизации ключевых слов Да Да Да
Множественные ключевые слова для фокусировки Оплачено Оплачено Бесплатно
Социальные метаданные (OG/Twitter) Да Да Да
Генерация Llms.txt Да – включено по умолчанию Да – включить одним нажатием Да – включение одной проверкой
Управление AI-краулером Via robots.txt Via robots.txt Via robots.txt

Такие вещи, как редактируемые метаданные, структурированные данные, файлы robots.txt, карты сайта и теперь файлы llms.txt, являются наиболее важными элементами, которые следует учитывать. Большая часть этой работы происходит на стороне сервера, поэтому это не всегда видно при анализе данных из HTTP Archive.

Влияние структурированных данных от SEO-плагинов

Как человек, который давно разрабатывает веб-сайты, я заметил явную связь между использованием структурированных данных и тем, насколько легко люди могут принять систему управления контентом (CMS). Но что *действительно* заставляет меня задуматься, так это выяснение того, что на самом деле вызывает эту связь – что движет обоими этими явлениями, чтобы они происходили вместе?

Изучение данных из HTTP Archive, в частности, сравнение веб-сайтов с SEO-плагинами и без них, выявляет значительную разницу в производительности.

Если мы сосредоточимся на типах Schema.org, наиболее релевантных для поисковой оптимизации, становится очевидным, что определенные типы структурированных данных активно продвигаются SEO-плагинами. Хотя это и не *единственные* используемые типы – некоторые люди могут использовать менее распространенные плагины или пользовательский код – простота их настройки является ключевым фактором их популярности.

Robots Meta Support

SEO Web Almanac за 2025 год также показал, что владельцы веб-сайтов чаще всего используют директивы «follow» и «index». Интересно, что эти директивы на самом деле не нужны, потому что если вы вообще не включаете какие-либо директивы, поисковые системы автоматически будут следовать и индексировать ваши страницы в любом случае.

Сначала я не особо углублялся в анализ цифр, но знал, что большинство популярных SEO-плагинов для WordPress автоматически разрешают поисковым системам индексировать и переходить по ссылкам. Это заставило меня захотеть найти более чёткий шаблон в данных.

Мы обнаружили, что сайты WordPress, использующие SEO-плагины, гораздо чаще имели свои главные страницы настроенные на индексацию и отслеживание поисковыми системами – это происходило более чем на 75% таких сайтов. В отличие от этого, менее 5% сайтов WordPress *без* SEO-плагинов имели эту настройку включенной.

Поскольку WordPress и его SEO-плагины так широко используются, они, вероятно, играют важную роль в этой настройке. Хотя это немного повторяется, это не является неверным. Что более важно, это показывает, как популярные плагины могут эффективно установить стандарт для большой части интернета.

Это переведенный текст.

Как эксперт по поисковой оптимизации, одно из самых интересных обновлений, которое я заметил в Web Almanac 2025, было включение файла llms.txt. Это была не полноценная рекомендация, но она определенно сигнализировала о том, что Almanac признает этот файл как ключевой элемент данных в текущую эру поиска на основе искусственного интеллекта. Это тихое признание его важности, и я обязательно буду внимательно следить за ним для своих клиентов.

По данным за 2025 год, чуть более 2% сайтов имели валидный llms.txt файл и:

  • 39.6% файлов llms.txt связаны с All-in-One SEO.
  • 3.6% файлов llms.txt связаны с Yoast SEO.

Это не всегда делается намеренно, особенно потому, что Rank Math включает эту функцию автоматически, в отличие от Yoast и All-in-One SEO, которые требуют от пользователей её включения.

Начиная с первоначальных данных, собранных 25 июля 2025 года, мы наблюдаем устойчивый рост каждый месяц. Это говорит о растущей уверенности в этой новой разметке, или, по крайней мере, простота её реализации способствует более широкому внедрению в качестве осторожного подхода.

Заключение

Согласно данным Web Almanac, крупные сдвиги в поисковой оптимизации (SEO) обычно не вызываются усилиями отдельных специалистов по SEO. Вместо этого они происходят, когда популярные платформы, такие как WordPress, Shopify или Wix, обновляют свои настройки по умолчанию, или когда выпускается значимый плагин с новыми функциями.

  • Канонические теги коррелируют с ростом CMS.
  • Robots.txt validity improves with CMS governance.
  • Избыточные директивы «index,follow» распространяются, поскольку плагины делают их явными.
  • Даже llms.txt уже распространяется через переключатели плагинов, прежде чем будет достигнуто полное согласие.

SEO не становится менее важным, оно просто меняется. Хотя квалифицированные специалисты по SEO все еще могут внести значительный вклад – особенно при сложных настройках, структуре веб-сайта, высококачественном контенте и понимании бизнес-целей – все больше и больше базового технического фундамента сети обрабатывается командами разработчиков, которые устанавливают стандарты для миллионов веб-сайтов.

Стоит задуматься о том, как системы управления контентом (CMS) формируют основу современной поисковой оптимизации (SEO). В связи с этим, разработчики, создающие плагины для этих систем, по сути, определяют, что считается стандартной практикой, зачастую до того, как эти практики широко признаются как наилучший способ действий.

Идея звучит хорошо в теории, но у меня есть некоторые опасения. Предлагая решения без дополнительной платы, они фактически устанавливают новые стандарты и поощряют широкое распространение. К сожалению, это также означает, что устаревшие или ненужные стандарты могут сохраняться просто потому, что они все еще доступны.

Это не вопрос о том, *влияют ли* системы управления контентом (CMS) на поисковую оптимизацию (SEO) — они безусловно влияют. Настоящая проблема в том, внимательно ли специалисты по SEO изучают, *как* эти платформы настроены по умолчанию, как эти настройки меняются со временем, и являются ли общепринятые методы SEO просто самыми простыми вариантами, встроенными в популярные CMS-платформы.

Не судите о ценности SEO-специалиста по времени, которое он тратит на базовые технические детали, такие как канонические теги и карты сайта – это лишь часть работы. Чтобы действительно продвинуть SEO, сосредоточьтесь на улучшении существующих инструментов, создании новых или инициировании изменений в отрасли.

Смотрите также

2026-02-24 16:16

Обновление Google Discover: Первичные данные показывают меньше доменов в США.

NewzDash изучил, насколько заметен контент из Discover до и после запланированного Google основного обновления в феврале 2026 года. Они использовали данные от миллионов пользователей из США, собранные с помощью их инструмента DiscoverPulse, для проведения этого анализа.

Мы проанализировали изменения, сравнив данные за неделю до обновления (25–31 января) с неделей после него (8–14 февраля). Этот анализ был сосредоточен на 1000 самых популярных веб-сайтов и статей в Соединенных Штатах, а также конкретно в Калифорнии и Нью-Йорке.

Для прозрачности, NewzDash — это платформа отслеживания SEO новостей, которая продает инструменты мониторинга Discover.

Что показывают данные

Google недавно обновил свои результаты поиска, чтобы отдавать приоритет полезному, информативному контенту из надежных источников. Они стремятся показывать больше местных новостей, меньше привлекающего внимание, но некачественного контента, и больше углубленных статей на конкретные темы. NewzDash уже отслеживает, как это обновление влияет на результаты поиска во всех этих областях.

NewzDash проанализировал, какие истории появлялись в лентах Discover для пользователей в Калифорнии, Нью-Йорке и по всей территории США. Хотя ленты были в основном похожи, в ленте каждого штата были некоторые новости, специфичные для его местоположения, которые не отображались где-либо еще. Истории с местных веб-сайтов Нью-Йорка появлялись примерно в пять раз чаще в ленте Нью-Йорка по сравнению с лентой Калифорнии, а источники новостей из Калифорнии были более заметны в ленте своего штата.

После обновления мы наблюдали увеличение количества новостных статей местного характера в топ-100 результатов поиска в Калифорнии – с 10 до 16. Эти результаты включали контент от местных издателей, таких как SFGate и LA Times, которые не отображались в национальном топ-100 одновременно.

Было сложнее проверить снижение количества кликбейта. Хотя NewzDash признали, что просто пометка заголовков не доказывает уменьшение кликбейта, они заметили, что определенные привлекающие внимание стили заголовков стали менее распространенными. После обновления количество статей Yahoo, появляющихся в топ-1000 статей США, упало с 11 до всего 6, и у них не было ни одной статьи в топ-100.

Количество различных тематических областей увеличилось во всех регионах, но количество уникальных издателей уменьшилось как в США, так и в Калифорнии. Это указывает на то, что Discover теперь представляет более широкий спектр тем, но распространяет этот контент через меньшее количество издателей.

Эта тенденция соответствует тому, что мы наблюдали в начале декабря после основного обновления: веб-сайты, ориентированные на конкретные темы, показывают лучшие результаты, чем те, которые охватывают широкий спектр предметов.

Растущее присутствие Discover на X.com

На X.com публикации из официальных аккаунтов организаций все чаще появляются в топ-100 результатов ‘Discover’ в США – увеличившись с 3 до 13. В Нью-Йорке это число выросло еще больше, увеличившись с 2 до 14.

Как SEO-эксперт, я внимательно отслеживаю функцию ‘Discover’ в X (ранее Twitter) с ноября, и я вижу явное ускорение ее роста. Особенно интересно, что контент, который лучше всего работает в Discover, в основном исходит от известных и авторитетных медиа-брендов. Это говорит о том, что алгоритм X в настоящее время отдает предпочтение надежным источникам при предоставлении контента пользователям.

Обзор не выявил чётких доказательств того, что публикации в X отнимают трафик у издателей в Discover, описывая данные как общее подтверждение. Всё ещё неясно, затрудняет ли перенаправление пользователей через X доступ к сайту издателя, что потенциально снижает показатель кликабельности (CTR).

Почему это важно

Основываясь на первоначальных данных из недавнего основного обновления Discover, похоже, что Google отдает приоритет местным новостям. Издатели, которые фокусируются на региональном контенте и темах, актуальных для конкретных сообществ, чаще появляются в верхней части результатов поиска, согласно NewzDash.

После обновления Google обнаружил более разнообразный контент, но меньше веб-сайтов получали значительный трафик от этих открытий, особенно в США и Калифорнии. Веб-сайты, которые не чётко фокусируются на конкретных темах, могут пострадать от этого изменения.

Заглядывая в будущее

Этот отчёт рассматривает данные, собранные на ранних этапах развёртывания, пока процесс ещё шёл. Важно отметить, что период измерения включал в себя крупные события, такие как Super Bowl, Зимние Олимпийские игры и T20 World Cup, все из которых могли увеличить количество просмотров новостного и спортивного контента.

Google объявила, что вскоре выпустит обновление Discover для большего числа пользователей, расширив его за пределы тех, кто находится в США и использует английский язык.

Смотрите также

2026-02-24 00:39

SerpApi бросает вызов праву Google подавать в суд за скрапинг SERP.

Два месяца спустя после того, как Google подал в суд на SerpApi за якобы обход его технологии защиты от скрапинга (SearchGuard), SerpApi попросил суд отклонить иск. Первоначально Google подал иск в соответствии с Законом о цифровом авторском праве (DMCA).

Этот судебный иск касается не только технических деталей. SerpApi ставит под вопрос, имеет ли Google право подавать в суд в принципе.

The Standing Question

SerpApi считает, что DMCA предназначен для защиты создателей оригинального контента, а не компаний, которые просто демонстрируют контент, созданный другими.

Google обвинила SerpApi в незаконном копировании материалов, защищенных авторским правом, в частности упомянув изображения, используемые в Knowledge Panels Google, фотографии, предоставленные продавцами в результатах Shopping, и контент, представленный в Google Maps.

По словам генерального директора SerpApi Жюльена Халеги, контент, появляющийся в результатах поиска Google, принадлежит людям, которые его создают – издателям, авторам и создателям контента, а не самой Google.

Khaleghy пишет:

«Google — оператор веб-сайта. Он не является владельцем авторских прав на информацию, которую он предоставляет.»

Халеги утверждает, что DMCA позволяет правообладателям контролировать только доступ к своим произведениям. Он утверждает, что Google пытается применить эти меры контроля без получения разрешения или даже уведомления создателей контента, вовлеченных в процесс.

В 31-страничном юридическом документе SerpApi ссылается на дело Верховного суда 2014 года, *Lexmark International, Inc. v. Static Control Components, Inc.*, которое требует от истцов доказательств того, что они понесли ущерб в области, которую закон должен был защитить. SerpApi утверждает, что ущерб, который заявляет Google – такие вещи, как затраты на его системы и потерянные деньги от рекламы из-за автоматизированных поисков – не является тем типом проблем, для решения которых был создан Закон об авторском праве в цифровую эпоху (DMCA).

Вопрос об обходе ограничений

SerpApi также оспаривает, считается ли обход SearchGuard нарушением в соответствии с DMCA.

Как вебмастер, который внимательно следит за сбором данных поисковыми системами, я слышал заявления Google в декабре о том, что SerpApi обходит их защиту. По-видимому, они утверждали, что SerpApi успешно обрабатывает JavaScript, меняет IP-адреса и даже ведет себя как реальный человек, просматривающий страницы – все это для обхода SearchGuard. Если это правда, то это довольно сложная настройка.

Как человек, который много имел дело с DMCA во время управления веб-сайтами, я внимательно следил за юридическими аргументами. В основном, DMCA гласит, что «обход технологической меры» включает в себя такие вещи, как расшифровка или дешифрование контента, или просто обход функций безопасности. И, насколько я понимаю, позиция SerpApi заключается в том, что они *не* делают ничего из этого – они не взламывают и не отключают никаких защитных мер.

Khaleghy пишет:

Мы просто посещаем веб-сайты, которые уже открыты для публичного доступа, так же, как вы бы сделали это с веб-браузером. Мы не обходим какие-либо меры безопасности, такие как шифрование или требования к входу.

Согласно юридическим документам, Google утверждает, что не пытается обходить или декодировать какой-либо контент, а также не отключает и не удаляет какие-либо элементы управления доступом. SerpApi утверждает, что SearchGuard предназначен для управления ботами, а не для контроля доступа к авторским правам.

Почему это важно

Результаты этого дела могут затронуть не только SerpApi. Если юридический аргумент Google будет принят, любая платформа, демонстрирующая контент из других источников, сможет использовать закон об авторском праве, чтобы предотвратить доступ автоматизированных инструментов к общедоступным веб-страницам.

В декабре мы обсуждали первоначальный юридический иск Google и указали на ключевой вопрос: соответствует ли SearchGuard требованиям для защиты в соответствии с DMCA? Теперь SerpApi добавляет еще один аргумент в это дело. Они утверждают, что даже если SearchGuard *действительно* соответствует требованиям для защиты, Google не является надлежащей стороной для обеспечения этой защиты.

Как SEO-эксперт, я слежу за недавними юридическими баталиями вокруг AI и доступа к веб-сайтам. Только в прошлом месяце, 15 декабря 2025 года, судья Сидни Штайн вынес решение в пользу OpenAI по делу, возбужденному Ziff Davis. Суть вопроса заключалась в том, обходил ли OpenAI файл ‘robots.txt’ – стандартный инструмент, который мы используем, чтобы сообщить ботам поисковых систем, какие части веб-сайта *не* следует сканировать. Судья установил, что Ziff Davis не убедительно продемонстрировал, что ‘robots.txt’ функционирует как истинный технологический барьер для доступа, или что OpenAI действительно его обошел. По сути, суд постановил, что простое игнорирование ‘robots.txt’ не обязательно является незаконным обходом в соответствии с DMCA.

SearchGuard от Google более сложен, чем простой файл robots.txt, но оба метода изучаются, чтобы определить, подпадают ли они под правила DMCA, когда речь идет о блокировке автоматизированного доступа к общедоступному контенту.

Заглядывая в будущее

Суд рассмотрит аргументы по запросу SerpApi 19 мая 2026 года. Google планирует представить свой ответ до этой даты.

SerpApi также участвует в судебном разбирательстве, которое Reddit начала в октябре, обвиняя их, наряду с Perplexity, Oxylabs и AWMProxy, в неправомерных действиях. И это дело, и другое вызывают опасения по поводу того, могут ли компании использовать авторское право, чтобы предотвратить доступ ботов к общедоступным веб-страницам.

Смотрите также

2026-02-23 21:40