Почему проблема спама в Google становится всё хуже?

Спам вернулся в поиск. И вернулся с размахом.

Я действительно сомневаюсь, что Google сможет эффективно справиться с этой проблемой. Это происходит в гораздо большем масштабе, чем когда-либо прежде. Они в настоящее время пытаются исправить это, вручную просматривая веб-сайты после недавнего обновления, но в результатах поиска появляется все больше и больше сайтов низкого качества, чем я видел за долгое время. Кажется, что они отстают и не сосредотачиваются на правильных вещах.

Купил акции на все деньги, а они упали? А Илон Маск снова написал твит? Знакомо. У нас тут клуб тех, кто пытается понять этот цирк и не сойти с ума.

Купить на падении (нет)

Несколько лет назад поисковые системы успешно справлялись с постоянно усложняющимися спам-техниками, которые люди использовали для манипулирования рейтингами. Казалось, что приверженность Google к высококачественным результатам поиска и его готовность наказывать за спам, наконец, одерживают верх. Получение одного из этих штрафов может быть разрушительным – просто спросите любого, кто пострадал от недавнего обновления Helpful Content.

Пейзаж изменился. Искусственный интеллект стремительно меняет принципы работы поисковых систем, а крупные технологические компании сосредоточены на других приоритетах. Это сложный период для специалистов по SEO, которые придерживаются этичных практик.

TL;DR

  1. Google в настоящее время проигрывает войну со спамом, с беспрецедентным масштабом, обусловленным генерируемым ИИ мусором, и злоупотреблением устаревшими доменами и PBN.
  2. Система обнаружения спама от Google отслеживает четыре ключевые группы сигналов – контент, ссылки, репутационные и поведенческие.
  3. Данные из утечки Google указывают на то, что наиболее эффективное обнаружение фокусируется на скорости ссылок и анкорном тексте.
  4. AI «поиск» во много раз дороже традиционного поиска. Эта огромная стоимость и фокус на новые AI-продукты приводят к недостаточному инвестированию в основную борьбу со спамом.

Как работает система обнаружения спама от Google?

SpamBrain – это последняя в серии обновлений от поисковой системы, разработанная для улучшения понимания ссылок и ключевых слов. Более ранние обновления включали Penguin, Panda и RankBrain.

И прямо сейчас, очень плохо.

Как SEO-эксперт, я внимательно слежу за SpamBrain, и он демонстрирует удивительную точность в обнаружении спамного контента и веб-сайтов. Честно говоря, уровень точности удивляет – они утверждают, что он ‘шокирующий’, хотя я не совсем уверен, подразумевается ли это как что-то хорошее или плохое! Я просто сообщаю о том, что вижу и слышу об этом на данный момент.

Алгоритм со временем становится лучше в определении спама. По мере того, как он изучает характеристики, определяющие спам-сайты, он строит систему – нейронную сеть – для их автоматического распознавания.

Подобно тому, как мы определяем первоначальные источники спама, если вы знаете, какие веб-сайты являются самыми крупными нарушителями, вы можете затем оценить все остальные сайты, основываясь на этих знаниях. Это позволяет вам анализировать большое количество веб-сайтов, рассматривая такие факторы, как их контент, ссылки, активность пользователей и общая репутация, чтобы категоризировать их по группам.

  • Входные данные (контент, связывающий репутационные и поведенческие сигналы).
  • Скрытый слой (кластеризация и сравнение каждого сайта с известными спам-сайтами).
  • Выходы (спам или не спам).

Если ваш веб-сайт группируется с известными спам-сайтами на основе упомянутых факторов, это предупреждающий знак. Система помечает сайты на основе определенных лимитов, поэтому, скорее всего, для наложения штрафа за спам требуется последовательное рискованное поведение с течением времени.

Как SEO-эксперт, я видел множество сайтов, испытывающих трудности. Если ваш контент уже немного слаб или не предлагает особой ценности, вы уже находитесь на шаткой почве. Добавьте к этому рискованные обратные ссылки, сомнительные SEO-тактики, такие как parasite SEO, и стратегию создания тонн некачественного контента, и вы почти гарантированно потерпите неудачу. Это рецепт катастрофы, и в конечном итоге Google вас раскроет.

О каком типе спама мы говорим здесь?

Google отмечает самые вопиющие действия здесь. Мы говорим о:

  • Cloaking.
  • Злоупотребление дверными проемами.
  • Злоупотребление просроченными доменами.
  • Взлотый контент.
  • Скрытый текст и контент.
  • Перенасыщение ключевыми словами.
  • Спам ссылками.
  • Злоупотребление масштабированным контентом.
  • Злоупотребление репутацией сайта.
  • Некачественный партнерский контент.
  • UGC спам.

Многие из этих вредоносных SEO-практик пересекаются. Истекшие домены часто неправильно используются для частных блог-сетей (PBN). Хотя переспам ключевыми словами встречается реже, спам ссылками остается значительной проблемой. В целом, создание и распространение некачественного контента в больших масштабах происходит чаще, чем когда-либо.

Наличие большого количества связанных материалов на разных веб-сайтах может значительно улучшить ваши результаты. Стратегически ссылаясь на ваши самые важные страницы – как с точными, так и со схожими ключевыми словами – вы можете повысить авторитет вашего веб-сайта и увеличить доход.

Давайте рассмотрим основные моменты ниже.

Fake News

Google Discover, который показывает вам персонализированный контент, похожий на ленту социальных сетей, в последнее время стал целью спамеров. Появляется множество фейковых статей, созданных с использованием искусственного интеллекта, и этот некачественный контент даже начал появляться на авторитетных новостных сайтах.

Мошенники прекрасно знают, что привлекает пенсионеров – такие вещи, как изменения в пенсиях, бесплатный транспорт и лицензии на телевидение. Они умело играют на чувствах людей, зная, что расстроить пожилого человека может привести к сильной реакции. Хотя случайные ошибки случаются, этот уровень постоянной щедрости просто невероятен.

Те, кто следует правилам, остаются незамеченными, в то время как возможности для тех, кто готов их сгибать или нарушать, быстро растут. И, честно говоря, это довольно волнительно для тех, кто в этом участвует.

Злоупотребление масштабируемым контентом

На данный момент более половины контента в сети, вероятно, создается искусственным интеллектом, а некоторые оценки предполагают, что эта цифра еще выше. Недавний анализ почти миллиона веб-страниц, проведенный Ahrefs, показал, что 74% содержат текст, сгенерированный ИИ. Это, вероятно, лишь та часть, которую мы смогли обнаружить – в сети, скорее всего, гораздо больше контента, созданного ИИ.

Журналист, получивший награды, Жан-Марк Манах обнаружил более 8300 новостных веб-сайтов, созданных с использованием ИИ на французском языке, и более 300 на английском. Он считает, что эти цифры — это только начало, и что существует гораздо больше подобных сайтов.

Он оценивает, что два владельца этих сайтов стали миллионерами.

Некоторые SEO-специалисты, использующие сомнительные тактики для попытки доминировать в результатах поиска, используют просроченные веб-адреса и частные блог-сети, чтобы обмануть поисковые системы. Они делают это, искусственно увеличивая количество кликов, подделывая вовлеченность пользователей и используя установленный авторитет, которым когда-то обладали эти старые веб-сайты.

Использование просроченных доменов

Большой папа. Чёрная шляпа, нулевая точка.

Любой, кто знаком с онлайн-сообществами черных шляп, знает, насколько просто приобрести просроченные веб-домены. Например, кто-то недавно купил веб-сайт London Road Safety – ранее уважаемый домен – и быстро превратил его в одностраничный сайт, продвигающий букмекерские сайты, не охваченные GamStop.

В связи с большими суммами денег, задействованными в этом, ставки и криптовалюты являются основными целями для незаконной и неэтичной деятельности.

Я не эксперт в этом, но, по моему мнению, процесс выглядит следующим образом:

  1. Приобретите просроченный, ценный домен с сильной и чистой историей обратных ссылок (без ручных санкций). В идеале, несколько таких доменов.
  2. Затем вы можете начать создавать свою собственную PBN с уникальными хостинг-провайдерами, nameservers и IP-адресами, используя разнообразные авторитетные, старые и новые домены.
  3. Этот домен(ы) затем становится вашей крепостью капитала/авторитета.
  4. Запустите несколько вариантов TLD домена, то есть вместо .com он становится .org.uk.
  5. Добавьте смесь точных и частичных якорей из PBN на основной сайт, чтобы сигнализировать о его новой направленности.
  6. Либо добавьте 301 редирект на короткий период времени для денежной вариации домена, либо установите канонический адрес для этой вариации.

Эти мошенничества не длятся долго, но успешные из них могут приносить много денег – потенциально сотни тысяч фунтов стерлингов. Они происходят снова сейчас, и я думаю, что они даже более прибыльны, чем раньше.

Кажется удивительно просто: найти просроченный домен, ранее использовавшийся благотворительной организацией, быстро обновить его дизайн, и вы потенциально готовы. Используя редирект (301) или используя существующий авторитет домена, простой веб-сайт о ‘best casinos not on Gamstop’ может начать приносить доход, даже ориентируясь на англоязычную аудиторию.

Чарльз Флоат, хорошо известная фигура в мире хакеров, утверждает, что некоторые компании отмывают сотни тысяч фунтов стерлингов каждый месяц.

PBNs

Частная Блог-Сеть (PBN) — это коллекция веб-сайтов, принадлежащих одному лицу или организации, используемая для создания ссылок, указывающих на основной веб-сайт, часто с целью увеличения доходов от рекламы или партнерских программ.

Частные блог-сети должны быть полностью отличными и независимыми. У них не должно быть никаких общих элементов, которые Google мог бы использовать для их связи. Каждый веб-сайт в сети должен функционировать как отдельная сущность.

  • Хостинг-провайдер.
  • IP адрес.
  • Nameserver.

Приватные блочные сети (PBNs) ценны, поскольку они позволяют создавать сильные обратные ссылки и позиционировать себя как авторитет в своей нише, что помогает снизить риск. Хотя использование просроченных доменов может быть рискованным и дорогостоящим – штраф может их разрушить – PBNs распределяют этот риск. Если один сайт в PBN будет оштрафован, другие могут продолжать функционировать, подобно мифической Гидре, где отсечение одной головы приводит к отрастанию новых.

Крайне важно защитить ваш основной домен (старый или просроченный, который вы купили). Вместо прямой ссылки на ваш основной веб-сайт, лучший подход — ссылаться на веб-сайты, которые *уже* ссылаются на него.

Это косвенно повышает ценность основного сайта, защищая его от пристального взгляда Google.

Что показывает утечка Google о спаме?

Предсказания — это скорее угадывание, чем наука – честно говоря, даже псевдонаукой это назвать сложно. Я собираю множество, казалось бы, не связанных между собой данных, чтобы попытаться в этом разобраться. Для получения дополнительных сведений, рекомендую подписаться на Шона Андерсона.

После удаления нерелевантных упоминаний я обнаружил около 115 употреблений слова «spam» в названиях и описаниях модулей. Затем мы можем сгруппировать эти случаи на основе четырех категорий: контент, ссылки, репутация и поведение.

Эти компоненты также могут быть сгруппированы по тому, что они решают – например, получение ссылок, текст, используемый в этих ссылках, и качество вашего контента. Это помогает нам понять, что важно при определении объема усилий, которые необходимо приложить.

Несколько примеров:

  • spambrainTotalDocSpamScore вычисляет общий спам-балл документа.
  • IndexingDocjoinerAnchorPhraseSpamInfo и IndexingDocjoinerAnchorSpamInfo модули определяют спамные якорные фразы, анализируя количество, скорость, дни обнаружения ссылок и время окончания всплеска.

Главная суть заключается в том, что ссылки играют решающую роль в выявлении спама, особенно слова, используемые в этих ссылках (известные как anchor text). Как быстро вы получаете ссылки и качество контента вокруг них также имеют большое значение. Похоже, система Google лучше всего выявляет потенциально проблемные веб-сайты, анализируя их ссылки.

Резкое увеличение количества ссылок, указывающих на коммерческие страницы с точным соответствием ключевым словам, может быть предупреждающим знаком. Если сайт помечен за этот тип контента или методы линковки, наша система, SpamBrain, проанализирует его поведение и репутацию.

Если эти детали подтверждают друг друга и ваш веб-сайт достигает определенных пределов, вы столкнетесь с серьезными проблемами. Именно поэтому, до недавнего времени, решение этой задачи требовало специализированных навыков.

В конечном счете, они просто инвестируют меньше в традиционный поиск.

Как отметил Мартин МакГарри, у них есть более насущные и значимые проблемы. Они сосредоточены на гораздо более крупных вопросах прямо сейчас.

За последние два года мы завершили одиннадцать обновлений проекта. В 2025 году эти обновления заняли в общей сложности около 70 дней, в то время как в 2024 году они длились почти 130 дней – действительно продуктивный темп!

Несложно догадаться, почему…

Как SEO-эксперт, я вижу сигналы, что Google действительно усиливает персонализацию. Похоже, они добавили способы понимать *кто* осуществляет поиск, а не только *что* они ищут – такие вещи, как рекомендации, основанные на персонах, и система для категоризации издателей. Я твердо верю, что ключевая часть работы Discover заключается в группировке пользователей с похожими интересами – эти ‘когорты’ – что позволяет контенту быстро распространяться и набирать обороты.

Как только вы хорошо поймете свою аудиторию и сможете разделить ее на конкретные группы, вы сможете быстро охватить значительную часть рынка – иногда всего за несколько дней. Однако стоимость является важным фактором. Традиционные результаты поиска – «десять синих ссылок» – относительно недороги в предоставлении. Искусственный интеллект, с другой стороны, дорог на каждом этапе разработки и внедрения.

Почему поиски с использованием ИИ такие дорогие?

Google планирует инвестировать дополнительные 10 миллиардов долларов в этом году, чтобы удовлетворить растущий спрос на свои облачные сервисы. Это увеличивает их общие капитальные затраты (CAPEX) почти вдвое по сравнению с прошлогодними 52,5 миллиардами долларов.

Это не только Google. Это гонка на дно в Силиконовой долине.

Хотя Google официально не делился деталями, широко известно, что поиск с использованием ИИ стоит значительно дороже, чем стандартный поиск Google, который просто предоставляет список ссылок. Традиционные поиски относительно просты – они извлекают результаты из предварительно сохраненных страниц и недороги в эксплуатации.

Функция AI Overview создает ответы путем обработки информации и генерации естественно звучащих ответов. Однако режим AI менее эффективен. Это связано с тем, что при формировании ответа он учитывает не только ваш текущий вопрос, но и всю историю разговора.

Использование метода ‘распространения’ – одновременный запуск множества поисков – требует значительно больше вычислительной мощности.

Хотя специализированное оборудование, повышенная эффективность и интеллектуальное кэширование могли бы помочь снизить расходы, сделать поиск на основе ИИ стандартным опытом представляет собой серьезное препятствие для Google. Я считаю, что это объясняет, почему некоторые, такие как Барри, думают, что он не станет настройкой по умолчанию. Вероятно, Google будет использовать ИИ только для определенных поисков – возможно, тех, которые сосредоточены на персонализации. Применение его ко всем поискам, особенно брендовым или тем, где люди напрямую ищут определенный веб-сайт, было бы значительной и ненужной стоимостью.

И эти ребята действительно любят деньги.

IET оценивает, что если бы все жители Лондона (более 9,7 миллионов человек) использовали ChatGPT для создания короткого электронного письма из 100 слов, то для охлаждения серверов потребовалось бы колоссальное количество воды – 4 874 000 литров. Этого достаточно, чтобы заполнить более семи бассейнов олимпийского размера.

LLMs Уже Имеют Проблему со Спамом

Есть много доказательств того, что большие языковые модели сильно подвержены влиянию частоты упоминания чего-либо в данных, на которых они были обучены. По сути, они обрабатывают всё и принимают это за факт.

Включение заявления в нижний колонтитул вашего веб-сайта о действиях, предпринятых вами или вашей компанией, часто принимается без вопросов. К сожалению, быстрые и сомнительные методы иногда достигают лучших результатов, чем искренние, тщательные усилия.

Раздражает, когда простые, плохо спланированные усилия иногда приносят лучшие результаты, чем хорошо продуманные маркетинговые кампании, но такова реальность, с которой мы сталкиваемся.

Как и в конце 2012 года, все говорят о списках ‘лучшего’. Простые SEO-техники снова становятся популярными, потому что они доказывают свою эффективность с большими языковыми моделями. Люди используют различные старомодные методы, включая платную рекламу и соглашения об обмене ссылками.

Если это сделано на скорую руку, оно возвращается.

Как SEO-эксперт, я вижу огромный сдвиг в том, насколько важными становятся возможности Google по борьбе со спамом. Эти новые AI-модели часто извлекают информацию непосредственно из результатов поиска Google, когда они не уверены в ответе – это то, что мы называем RAG. Это означает, что если индекс Google полон спама, ответы AI будут страдать. Как я считаю, издателям необходимо противостоять технологическим гигантам и AI, Google действительно нужно уделять приоритетное внимание очистке своих результатов поиска. Это крайне важно для качества *всего* сейчас.

Я не уверен, что кто-то собирается…

Честно говоря, я сомневаюсь, что они стремятся к этому на данный момент. OpenAI заключила несколько очень значительных сделок, но их доходы все еще далеки от необходимого уровня. Кроме того, Google тратит огромные суммы на капитальные затраты.

Послушайте, судя по моему опыту, как человека, который разрабатывает веб-сайты и наблюдает за онлайн-бизнесом в течение многих лет, многие компании сейчас не уделяют должного внимания таким вещам, как достоверная информация или полная открытость. Честно говоря, люди просто не уверены в рынке, и компании действительно сосредоточены на получении прибыли. Кроме того, частные компании часто имеют большую свободу в том, как они отчитываются о своих доходах, что иногда может означать, что всё не так ясно, как должно быть.

HSBC оценивает, что OpenAI потребуется обеспечить как минимум 207 миллиардов долларов к 2030 году, только чтобы поддерживать текущий уровень расходов. Критики сравнили компанию с дорогостоящим предприятием, и это восприятие не способствует ее имиджу.

Будет интересно посмотреть, как они попытаются это объяснить сейчас. На этом пока всё. Спасибо за прочтение и за то, что оставались со мной на протяжении всего года – он, безусловно, войдёт в историю!

Смотрите также

2025-12-16 17:44