Google: 404 Crawling означает, что Google открыт для большего количества вашего контента

Джон Мюллер из Google недавно объяснил, что повторное сканирование Googlebot страниц, показывающих ошибку 404, на самом деле является хорошим знаком. Это означает, что Google всё ещё пытается понять ваш веб-сайт и поддерживать его индекс в актуальном состоянии.

Код состояния 404

Сообщение ‘404’, которое появляется как код ошибки, часто беспокоит владельцев веб-сайтов и специалистов по поисковой оптимизации. Оно звучит как признак того, что что-то не так и требует исправления, но это не всегда правда.

Ошибка 404 означает, что сервер не смог найти запрошенную вами веб-страницу. Это не обязательно проблема с самим веб-сайтом, а лишь то, что конкретной страницы не существует по этому адресу. По сути, запрос не может быть выполнен, потому что страница не найдена.

Большинство людей называют это Ошибкой 404, но официальный термин на самом деле ‘404 Not Found’. Это название чётко объясняет, что оно означает: веб-страница, которую вы запросили, не была найдена.

Скриншот официального веб-стандарта для кода состояния 4o4

Google продолжает сканировать страницы 404.

Пользователь Reddit сообщил о странной проблеме с Google Search Console: он по-прежнему показывает старые, несуществующие страницы как найденные через sitemaps, даже после того, как эти страницы были удалены из файла sitemap.

Пользователь полагает, что Search Console активно проверяет отсутствующие страницы, но на самом деле проверку выполняет Googlebot. Search Console просто показывает, когда эти проверки не удались.

Они обеспокоены тем, что могут зря потратить свой бюджет сканирования, и задаются вопросом, не лучше ли отправлять код ошибки 410.

Как цифровой маркетолог, я заметил, что Google Search Console всё ещё пытается получить доступ к множеству страниц на моём сайте, которых не существует – они выдают ошибки 404. Когда я проверяю инструмент Page Inspection и Crawl Stats, он показывает, что эти несуществующие страницы ‘обнаруживаются’ через мою карту сайта (page-sitemap.xml). Похоже, что карта сайта указывает на URL-адреса, которые больше не активны, и Google всё ещё следует по этим ссылкам.

Проблема:

Когда я открываю фактический файл page-sitemap.xml в браузере прямо сейчас, ни одного из этих URL-адресов 404 в нём нет.

Карта сайта содержит только 21 хорошую, активную страницу.

Я хочу продолжать отправлять свою карту сайта – она точна и включает только действительные страницы. Однако частые повторные обходы тратят мой бюджет обхода ненужным образом.

Сталкивался ли кто-нибудь с этим раньше?

В конце концов, Google остановится сам по себе?

Стоит ли перенаправить 404 на 410 Gone?

Или есть другой способ сообщить GSC «эй, их больше нет навсегда»?

О сканировании страницы 404 Google.

Google регулярно проверяет наличие страниц с ошибкой 404, предполагая, что они могли быть временно удалены, а затем восстановлены. По словам Джона Мюллера из Google, постоянное обнаружение страниц 404 на самом деле может быть хорошим знаком, указывающим на то, что Google считает ваш сайт активно поддерживаемым и обновляемым.

Около 404 Страница не найдена Ответ

Около 410 Gone Response

Google по сути обрабатывает 404 и 410 одинаково.

Когда веб-страница удаляется навсегда, сервер в идеале должен отправлять сообщение ‘410’. Однако Google обычно обрабатывает ответы ‘410’ примерно так же, как и ошибки ‘404’ (страница не найдена). Это означает, что Google может продолжать проверять, вернулась ли удалённая страница, даже после получения сигнала ‘410’.

Как SEO-эксперт, я постоянно вижу данные, которые указывают на то, что использование статусного кода 410 является немного более быстрым способом удаления страницы из индекса Google по сравнению с другими методами. Он просто как будто немного быстрее сигнализирует Google о том, что страница исчезла навсегда.

Google подтверждает факты об кодах ответа 404 и 410.

Недавно Джон Мюллер из Google уточнил, что ошибки 404, отображаемые в Search Console, не обязательно нуждаются в исправлении. Он также объяснил, что изменение ошибки 404 на ошибку 410 не повлияет на эти отчеты, и большое количество ошибок 404 на самом деле может быть хорошим знаком, указывающим на то, что Google активно сканирует и индексирует ваш сайт.

Эти страницы не вызывают никаких проблем, поэтому лучше оставить их как есть. Даже если вы удалите их с ошибкой 410, Google, вероятно, будет продолжать повторно сканировать их в течение довольно долгого времени. Это на самом деле говорит о том, что Google рад индексировать больше контента с вашего сайта.

Недопонимания относительно 4XX ответов сервера.

Беседа на Reddit продолжалась, и модератор сабреддита r/SEO предложил вероятное объяснение: Googlebot, вероятно, сначала обнаружил URL через карту сайта, поэтому Search Console сообщает об этом как об источнике обнаружения.

В чём модератор ошибся, так это в объяснении значения кода ответа 404.

Ошибка 404 означает, что веб-страница, которую вы ищете, сейчас не работает, но владелец веб-сайта работает над ее исправлением. Google регулярно проверяет эти нерабочие ссылки, чтобы узнать, были ли они исправлены.

Модератор допускает две ошибки в своем ответе.

Ошибка ‘404’ просто означает, что веб-страница, которую вы ищете, не найдена. Это все, что она означает! Если вы хотите увидеть официальное определение, вот веб-стандарт для кода ошибки 404.

Многие люди думают, что код статуса 404 означает, что что-то сломано на веб-сайте. Однако, 404 просто означает, что запрошенная веб-страница не существует по этому адресу. Проблема не в самом веб-сайте, а в ссылке или запросе, пытающемся получить доступ к несуществующей странице. Это запрос на что-то, чего нет, а не указание на то, что страница сломана, несмотря на то, во что верят некоторые.

Модератор Reddit был неправ, предполагая, что Google проверяет, было ли реализовано исправление. Google просто проверяет, исчезла ли страница неожиданно. Ошибка 404 не всегда требует исправления – часто страница удаляется намеренно, и Google на самом деле рекомендует использовать код ответа 404 в таких случаях.

Это не ново.

Модератор Reddit не ошибся, поделившись этой информацией – так всегда работала Google. Google обычно придерживается установленных веб-стандартов.

Владельцы веб-сайтов часто непреднамеренно создают себе проблемы. Страницы исчезают, сайты настраиваются неправильно, они выходят из строя или доступ случайно блокируется как для Google, так и для обычных посетителей. Из-за этого система сканирования Google должна быть очень устойчивой и справляться с этими распространенными ошибками.

Когда наша система сталкивается с ошибкой «страница не найдена» (404), мы временно защищаем эту страницу на 24 часа. Это дает нам время определить, была ли ошибка просто временной – возможно, страница была ненадолго недоступна или произошел сбой. Защита предотвращает немедленную маркировку ее как навсегда удаленной.

Мы повторно проверим, чтобы убедиться, что эти страницы все еще отсутствуют. Возможно, они снова появились, поэтому нам нужно подтвердить, прежде чем продолжить.

Если веб-страницу нельзя найти, вполне допустимо отображать ошибку 404. Если вы *знаете*, что страница была удалена навсегда, ошибка 410 – правильный выбор.

Мы разрабатываем нашу систему сканирования веб-страниц, чтобы она была надежной и справлялась с проблемами. Даже если ваш веб-сайт испытывает простои, нарушения безопасности или другие проблемы, мы сделаем все возможное, чтобы найти и проиндексировать ценный контент, как только он станет доступным.

Основные выводы

  • Сканирование Googlebot на наличие страниц 404 может рассматриваться как положительный сигнал того, что Google нравится ваш контент.
  • Коды состояния 404 не означают, что страница содержит ошибку; они означают, что страница не была найдена.
  • Коды состояния 404 не означают, что что-то нужно исправлять. Они лишь означают, что запрошенная страница не найдена.
  • Нет ничего плохого в отправке кода ответа 404; Google рекомендует это.
  • Search Console показывает ответы 404, чтобы владелец сайта мог решить, были ли эти страницы намеренно удалены.

https://www.youtube.com/watch?v=xp5Nf8ANfOw

Смотрите также

2026-03-19 13:41

Google ‘Разрабатывает’ возможность отказаться от функций генеративного ИИ в поиске

Компания Google недавно ответила на запрос регулятора конкуренции Великобритании, CMA, подтвердив свою приверженность справедливым практикам в результатах поиска. В ответе также было раскрыто, что пользователи скоро смогут отключить новые функции на базе ИИ в Search.

Управление по конкуренции и рынкам (CMA) предложило новые правила для цифровых рынков, чтобы способствовать справедливости, предоставить потребителям больше возможностей и усилить их контроль. Сегодня Google опубликовала запись в блоге, выражая поддержку этим предложениям.

Мы согласны с целями CMA по созданию справедливого цифрового рынка, где издатели имеют контроль, и мы делимся своими мыслями о том, как новые правила могут наилучшим образом принести пользу людям в Британии.

Неудивительно, что предложения Google включают в себя такие вещи, как поддержание полезных и непредвзятых результатов поиска и предоставление пользователям возможности выбирать предпочитаемые сервисы. Но их план на самом деле идет еще дальше, поскольку они также заявляют, что:

Мы хотим предоставить владельцам веб-сайтов инструменты, необходимые для контроля над тем, как их контент отображается и используется в других местах.

Google рассматривает возможность предоставления владельцам веб-сайтов большего контроля над тем, как их контент отображается в результатах поиска. Они работают над обновлениями, которые позволят сайтам конкретно отключать функции генеративного ИИ, что является значительным развитием для предприятий, обеспокоенных тем, что ответы, сгенерированные ИИ, используют их контент без разрешения.

Смотрите также

2026-03-18 21:14

Подлинный человеческий разговор™

В прошлую пятницу днем Digg умер. Снова.

Всего через два месяца после перезапуска генеральный директор платформы, Джастин Мезелл, опубликовал на веб-сайте сообщение, которое казалось прощальным. Несмотря на привлечение от $15 до $20 миллионов и наличие известных сторонников, таких как Кевин Роуз и соучредитель Reddit Алексис Оханиан, платформа потерпела неудачу. Её основная проблема? Ей не удалось предотвратить огромный приток ботов, которые практически сразу после запуска захватили контроль, несмотря на обещания, что ИИ поможет с модерацией.

По словам Мезелла, значительное и растущее число программ искусственного интеллекта и автоматизированных аккаунтов сейчас активно в сети. Несмотря на блокировку десятков тысяч этих аккаунтов и использование как внутренних, так и внешних инструментов для борьбы с ними, их усилия оказались недостаточными.

Как digital-маркетолог, я думаю, что произошедшее с Digg не было единичным случаем – это действительно высветило более широкую проблему с интернетом в целом. Для нас же это было особенно разрушительно, потому что весь наш бизнес строился на доверии людей к нашим рекомендациям. Доверие *было* нашим продуктом, поэтому, когда оно было поколеблено, мы почувствовали это остро.

Помни эту строчку. Она нам пригодится.

Судят за чтение

SerpApi извлекает результаты поиска из Google, используя код. В настоящее время они поданы в суд компанией Reddit, но не за прямой доступ к веб-сайту Reddit. SerpApi не посещал Reddit.com. Вместо этого, Reddit подает в суд на них за простое чтение общедоступной информации из результатов поиска Google.

Если эта правовая идея будет принята, любой SEO-специалист, который просмотрел страницу результатов поиска, может быть признан нарушителем авторских прав. По сути, простая проверка рейтинга вашего веб-сайта теперь может быть юридически рискованной.

Компания, которая публикует произведения, созданные другими, подаёт в суд на другую компанию. Иск возник из-за того, что вторая компания просматривала результаты поиска от третьей компании, которые иногда включали адрес, изначально опубликованный на Reddit.

Reddit просит суд защитить очень короткие фрагменты контента, появляющиеся на его платформе – такие вещи, как несколько названий фильмов, дата «May 17, 2024», и часть отзыва о ресторане. Они утверждают, что отображение этих фрагментов Google в результатах поиска нарушает закон об авторском праве, в частности тот же закон, изначально предназначенный для предотвращения пиратства DVD. По сути, Reddit утверждает, что просмотр этих общедоступных результатов поиска равносилен незаконному копированию фильма.

Генеральный директор SerpApi ответил на иск Reddit, указав на необычное утверждение о том, что доступ к общедоступным результатам поиска Google — то, что может сделать любой в Интернете — может быть юридическим нарушением. Он утверждал, что если логика Reddit будет принята, то просто просмотр этих результатов может быть расценен как нарушение авторских прав, что, по его мнению, не было целью первоначального закона, разработанного для предотвращения пиратства DVD.

Что действительно расстраивает, так это следующее: собственные правила Reddit, с которыми согласился каждый пользователь, чётко указывают, что пользователи владеют тем, что они публикуют. Reddit имеет только разрешение на использование контента, но не исключительные права на него. Поэтому невероятно лицемерно, что компания, которая заверила миллионы людей в том, что они владеют своими словами, сейчас борется в суде за контроль над тем, как и где эти слова читаются, и даже над тем, как на них зарабатывают.

Reddit выбрал эту модель лицензирования, вероятно, потому, что открытое заявление о том, что они будут владеть пользовательским контентом, отчудило бы сообщества, которые создали ценность платформы. Теперь, когда они присваивают этому контенту денежную стоимость, Reddit стремится изменить условия – посредством юридических действий, не привлекая создателей контента.

Если вы озадачены кажущимся слабым юридическим аргументом Reddit, причина проста: дело в деньгах. Они отдают приоритет своим финансовым интересам.

Официальные правила Reddit гласят, что пользователи сохраняют права собственности на то, что они публикуют. Однако документы, связанные с недавным публичным размещением акций компании, показывают, что Reddit заработал 203 миллиона долларов, лицензируя контент пользователей другим лицам. Это говорит о том, что Reddit теперь заявляет о контроле над этим контентом, несмотря на предыдущие утверждения о том, что он принадлежит пользователям.

Google тратит около 60 миллионов долларов в год, в то время как, по оценкам, OpenAI тратит 70 миллионов долларов. Генеральный директор Reddit Стив Хаффман, который ранее преуменьшал обеспокоенность добровольческих модераторов и пользовательского восстания, недавно сообщил инвесторам, что стоимость компании увеличилась. Он заявил, что их данные теперь больше, уникальнее и ценнее, что дает им сильное преимущество в переговорах.

Reddit изучает новую систему ценообразования, при которой стоимость доступа к его контенту будет меняться в зависимости от спроса, особенно со стороны искусственного интеллекта. Они считают, что поскольку модели ИИ все чаще используют контент Reddit, этот контент стал более ценным, и Reddit заслуживает компенсации за свой вклад в ответы, генерируемые ИИ.

Давайте чётко определим позицию Reddit, как она представлена как в его юридических документах, так и в материалах для инвесторов.

  • Она имеет право контролировать, кто получает доступ к пользовательскому контенту, которым она не владеет.
  • За этот контент следует платить больше, так как модели искусственного интеллекта используют его всё чаще.
  • Любой, кто получает к нему доступ без оплаты – даже через результат поиска Google – нарушает закон; и
  • Содержание само по себе является подлинным, ценным и незаменимым.

Эти четыре утверждения противоречат друг другу, что означает, что они не могут быть все верными. Однако, в настоящее время расследуется только последнее утверждение.

Продукт в основном состоит из ботов на данный момент.

Эта идея лежит в основе инвестиций в 130 миллионов долларов. Это обещание Google и OpenAI, что они получают реальные, естественные разговоры – такие, которые уникальны для людей, необработанные и невозможные для копирования автоматическими создателями контента.

Вот как на самом деле выглядит подлинный человеческий разговор на Reddit в 2026 году:

В июне 2025 года генеральный директор Reddit Стив Хаффман сообщил Financial Times, что платформа постоянно борется с растущей волной спама, создаваемого искусственным интеллектом. Он описал это как «гонку вооружений», и это описание оказалось удивительно точным.

На протяжении двух десятилетий мы конкурируем с теми, кто пытается повысить свою видимость на Reddit. Мы стабильно занимаем высокие позиции в результатах поисковых систем. Подобно тому, как люди стремятся преуспеть на Reddit, чтобы улучшить свои позиции в поисковых системах, теперь они сосредотачиваются на Reddit, чтобы быть замеченными моделями ИИ – это еще один способ обеспечить включение вашего контента.

Послушайте, после многих лет работы в веб-разработке, ты учишься замечать поворот, когда видишь его. Генеральный директор этой компании, продающей «человеческое общение» – сервис, приносящий 130 миллионов долларов в год – только что признался Financial Times, что по сути это был способ сбора данных для игрового ИИ. И самая дикая часть? Он представляет это как видение дальновидного человека, борющегося за правое дело, а не как извлечение прибыли из того, что большинство из нас сочло бы недостатком сервиса. Честно говоря, это довольно смелый спин.

Несколько лидеров рекламной индустрии, что неудивительно на Каннском рекламном фестивале, признались Financial Times, что намеренно публикуют контент на Reddit, чтобы повлиять на то, что ИИ-чат-боты говорят об их брендах. Они открыто признали эту практику, считая ее оправданной, поскольку их собственный генеральный директор объяснил, как это может работать.

Это происходит не только за закрытыми дверями. Вся индустрия возникла вокруг продвижения продуктов на Reddit. 404 Media сообщила об инструменте под названием ReplyGuy, который сканирует Reddit на предмет релевантных ключевых слов, а затем автоматически публикует ответы, которые тонко упоминают ваш продукт. Другие компании, такие как Redreach, ReplyHub, Tapmention и AI-Reply, еще более открыто об этом заявляют. Redreach утверждает, что публикации в Reddit теперь доминируют в результатах поиска Google, и что такие инструменты искусственного интеллекта, как ChatGPT, используют их для формирования рекомендаций по продуктам. Они утверждают, что игнорирование маркетинга в Reddit — это все равно, что игнорировать поисковую оптимизацию (SEO) много лет назад. Существует даже рынок для покупки и продажи старых аккаунтов Reddit с установленной репутацией, которые используются специально для рассылки спама и повышения позиций в поисковой выдаче.

Reddit продаёт свои реальные разговоры Google за 60 миллионов долларов в год. Недавно фейковый отзыв – размещённый ботом на аккаунте, приобретённом всего за 30 долларов – начал появляться в результатах AI-поиска Google, что привело к тому, что Google стал рекомендовать этот продукт реальным пользователям. Это подчеркивает источник данных, питающих AI Google: подлинный контент, созданный пользователями.

Моды исчезли, боты победили, и никто не ведёт счёт.

Опытные люди, которые ранее предотвращали эти проблемы, в основном больше не здесь. Изменения, внесенные Reddit в 2023 году в то, как разработчики получают доступ к его данным – изменения, которые произошли непосредственно перед тем, как компания стала публичной – обошлись бы разработчику приложения Apollo в 20 миллионов долларов в год только для продолжения работы. В ответ 7000 сообществ временно закрылись. Генеральный директор Reddit назвал добровольных модераторов оторванными от реальности и дождался, пока протест утихнет. Квалифицированные модераторы, которые использовали полезные приложения для поддержания качества, ушли, и их заменила менее опытная, более разочарованная группа, пытающаяся удержаться на плаву.

Тео, разработчик и генеральный директор t3.gg:


Исследование Корнеллского университета выявило значительные трудности для модераторов Reddit. Шестьдесят процентов сообщили об ухудшении качества контента, который они контролируют, в то время как 67% почувствовали, что становится все труднее налаживать подлинные связи между пользователями. Более половины также заявили, что им становится почти невозможно определить контент, созданный ИИ. По сути, люди, которым поручено поддерживать бесперебойную работу Reddit, все чаще не могут отличить реальный контент от поддельного.

Я работаю с онлайн-сообществами уже много лет, и это недавнее исследование из Университета Цюриха действительно затронуло меня. Они, по сути, доказали то, что многие из нас в мире вебмастеров подозревали: ИИ может быть *невероятно* убедительным. Они отправили ИИ ‘ботов’ на subreddit r/changemyview – большой форум, где люди искренне пытаются изменить мнение друг друга посредством разумных дебатов – выдавая себя за людей с глубоко личным опытом, например, за выжившего после нападения или консультанта по травмам. За несколько месяцев эти боты набрали более тысячи комментариев, и вот что самое интересное: они были в три-шесть раз убедительнее, чем реальные люди! Что еще более тревожно, так это то, что пользователи ничего не заподозрили. Никто не задавался вопросом, исходят ли эти сердечные ответы от реального человека, что, честно говоря, немного пугает, когда задумываешься о последствиях.

В течение четырех месяцев поддерживалась ложная личность, построенная на искусственных связях. Удивительно, но никто этого не заметил – ни обычные пользователи, ни модераторы сайта, ни даже собственные автоматизированные системы обнаружения Reddit.

Reddit отреагировал угрозой судебных исков против исследователей – вместо того, чтобы устранить недостатки в своих системах, которые позволили этой проблеме возникнуть в первую очередь. Они также не признали тревожный факт, что их якобы подлинные разговоры было невозможно отличить от тех, которые создавали боты, даже боты, притворяющиеся жертвами травмы. По сути, они попытались заставить замолчать людей, которые продемонстрировали, что их продукт не соответствует заявленному.

Как цифровой маркетолог, я помню, как в декабре 2025 года читал статью в Wired под названием «AI Slop Is Ruining Reddit for Everyone», и она действительно задела меня. Модераторы говорили об этом тревожном чувстве – как будто посты были *почти* человеческими, но они не могли быть уверены, реальные они или сгенерированные ИИ. Что было еще более тревожным, так это ответ Reddit: они похвастались удалением более 40 миллионов спам-постов в первой половине года. Честно говоря, это показалось немного лицемерным – как ресторан, подчеркивающий, сколько вредителей они поймали, вместо того чтобы заверять вас в безопасности еды. Это не вселило уверенности в то, что они действительно решают проблему.

Вот куда всё движется: Meta недавно купила Moltbook, социальную сеть, созданную исключительно для AI ботов. Представьте себе Reddit, но только для ботов – они публикуют, комментируют и голосуют за контент. Платформа привлекла внимание, когда один бот, казалось, предложил другим создать секретный язык для общения без ведома людей. Однако безопасность сайта была слабой, и люди могли выдавать себя за ботов и публиковать тревожные сообщения. Таким образом, даже сеть *для* ботов столкнулась с проблемой фейковых аккаунтов. Несмотря на это, Meta приобрела её. Это примечательно, потому что Meta уже платит Reddit 60 миллионов долларов в год за то, что они считают подлинными разговорами между людьми – и теперь они инвестировали в платформу, где боты даже *не пытаются* казаться людьми.

За время моей почти шестилетней работы в команде контроля качества поиска Google, я заметил устойчивую тенденцию: улучшения в цифрах часто достигались за счет качества. Это было не связано с недостатком усилий, а скорее с тем, что по мере роста масштаба становится труднее увидеть негативные последствия. Сами измерения, используемые для отслеживания роста, на самом деле могут помешать вам распознать, во что превращается этот рост.

Метрики роста Reddit впечатляющие. Его метрики качества — это чёрный ящик, который никто не хочет открывать.

Как SEO-эксперт, я вижу действительно тревожную тенденцию на Reddit. Он стал магнитом для спама, и, что удивительно, этот спам фактически *усиливает* его видимость в AI-моделях. Вот как это работает: AI видит всю эту фальшивую вовлеченность – лайки, комментарии, репосты – и думает, что Reddit является огромным популярным источником информации. Это ‘доминирование цитирования’ делает Reddit невероятно ценным, когда дело доходит до лицензирования его данных. По сути, чем больше AI-моделей цитируют Reddit, тем больше денег Reddit может взимать с Google, OpenAI и других. Именно поэтому, несмотря на знание о спаме, у Reddit есть веская финансовая причина игнорировать его. Если бы они признали, насколько он распространен, это серьезно повредило бы следующему раунду лицензионных переговоров и стоило бы им целое состояние.

Эта ситуация — порочный круг: базовая ценность снижается, а стоимость растёт. Это как если бы Reddit пытался продать имущество, которое фактически разваливается, с серьёзными структурными проблемами.

Хаффман часто подчеркивает, что текущие обсуждения на Reddit вскоре появятся в результатах поиска. Он также говорит инвесторам, что подлинный вклад людей важнее, чем когда-либо, описывая Reddit как самое искренне человеческое пространство в сети. Однако остается невысказанным критически важный вопрос: если Reddit борется с автоматизированными ботами, если модераторы не могут определить контент, сгенерированный ИИ, и если существуют инструменты для легкого заполнения платформы фейковыми постами… какая часть контента, который Reddit продает таким компаниям, как Google и OpenAI, на самом деле создана реальными людьми?

Все участники данной схемы извлекают финансовую выгоду, поэтому никто не занимается активным расследованием источника данных. Google нравится, что контент Reddit делает его ИИ более естественным, OpenAI ценит, как это делает ChatGPT более аутентичным, а Reddit не хочет рисковать потерей $130 миллионов в год, которые они получают. Это молчаливое понимание – отсутствие тщательного расследования – поддерживает сделку.

Признание

Как SEO-эксперт, я видел, как развивался интернет, и мне интересно слышать мнения основателей, таких как Алексис Оганян. Он был сооснователем Reddit, но в конечном итоге решил уйти, и он был очень откровенен в отношении причин. Он поделился, что ‘больше не мог гордиться тем, что я создаю’, что является мощным заявлением. Только в октябре прошлого года в подкасте TBPN он не стеснялся в выражениях, описывая состояние интернета сегодня, и, честно говоря, эта перспектива – о чем-то, о чем думают все в моей области.

Много онлайн-контента в наши дни кажется безжизненным. Теория ‘мёртвого интернета’ предполагает, что большая часть того, что мы видим, либо создается ботами, генерируется примитивным ИИ, либо представляет собой низкокачественный контент, как тот, который часто встречается в LinkedIn.

Он подкрепил свои слова действиями, инвестировав в перезапуск Digg с целью создания платформы, которая могла бы решить проблему фейкового контента, с которой боролся Reddit. Кевин Роуз ясно объяснил это на TechCrunch Disrupt.

С учетом того, что стоимость создания и использования AI-агентов становится невероятно низкой, мы можем ожидать все больше и больше ботов, которые убедительно имитируют человеческое поведение.

Они построили платформу. Она просуществовала два месяца. Боты победили.

Один из основателей Reddit недавно заявил, что интернет в том виде, в котором мы его знаем, подошёл к концу. Он попытался создать другую онлайн-платформу, но она не увенчалась успехом. Тем временем, оригинальный Reddit сейчас предпринимает юридические действия против людей просто за просмотр результатов поиска, активно наживается на том, что называет подлинными взаимодействиями, и защищает свою широко распространенную проблему с ботами как законную борьбу.

Reddit на самом деле не владеет контентом, который он предлагает лицензировать. Это означает, что он не может гарантировать точность или достоверность информации, и не будет защищать ценный контент. Несмотря на это, Reddit предпринимает юридические действия против всех, кто использует контент без разрешения или оплаты.

Всего за шесть месяцев платформа удалила сорок миллионов спам-аккаунтов. По словам Хаффмана, это кажется постоянной борьбой с постоянно усложняющимися ботами, в которой они в настоящее время проигрывают. Проблема усугубляется тем, что модераторам трудно отличить реальных пользователей от автоматизированных аккаунтов, и ботами, которые удивительно эффективно влияют на беседы. Один основатель даже предсказал, что интернет терпит неудачу, предсказание, которое, по-видимому, подтвердилось при недавнем перезапуске платформы.

Это продукт. Это то, что покупает 130 миллионов долларов в год. Подлинное человеческое общение™.

Смотрите также

2026-03-18 17:13

Как создать SEO-воркфлоу по работе с заявками: от тикетов до требований

Крупные компании испытывают трудности с SEO не из-за недостатка экспертизы; они испытывают трудности, потому что усилия по SEO часто начинаются слишком поздно в процессе.

Многие крупные компании по-прежнему подходят к SEO, исправляя проблемы *после* запуска своих веб-сайтов. Команды выявляют проблемы, создают отчёты и запрашивают изменения, но часто эти изменения занимают много времени, чтобы быть реализованными. Сегодня сильные позиции в поисковой выдаче строятся не за счёт небольших корректировок – они определяются тем, как веб-сайты проектируются и создаются изначально.

Успешные компании меняют подход к использованию SEO. Вместо исправления проблем *после* создания контента, они теперь используют его для планирования контента *до* его создания, чётко определяя, что необходимо для хорошего ранжирования в результатах поиска. В этой статье подробно описывается, как крупные организации могут официально внедрить это изменение, создав последовательный SEO-процесс, который включает поисковые требования с самого начала процесса создания контента.

Проблема с SEO на основе тикетов

Исторически сложилось так, что компании рассматривали SEO как нечто, что нужно исправить *после* запуска веб-сайта. Это часто означает, что контент создается или обновляется без учета поисковой оптимизации, что на самом деле может снизить его видимость в результатах поиска. Затем команда SEO должна вмешаться, найти проблемный контент или шаблоны и запросить изменения — создавая очередь задач. Эти запросы затем конкурируют с другими важными проектами, такими как новые функции, релизы продуктов и приоритетные задачи.

Это привычный шаблон: ремонт откладывается, а решения оказываются неполными. Хотя некоторые проблемы решаются, другие откладываются до будущих обновлений, а многие возвращаются снова и снова, потому что первопричина никогда не устраняется. Такой подход приводит к постоянным, повторяющимся проблемам.

  • Во-первых, SEO постоянно отстает. Оно реагирует на результаты, а не формирует их.
  • Во-вторых, SEO полагается на убеждение, а не на процесс.
  • Во-первых, структурные ошибки размножаются быстрее, чем их можно исправить. Каждая новая страница, шаблон или запуск на рынок становится ещё одной возможностью воспроизвести одни и те же проблемы в масштабе.

Если SEO всегда является реактивным, каждый онлайн-ресурс может стать слабым местом. Компания преуспевает в *обнаружении* проблем, но испытывает трудности с их предотвращением в первую очередь. Улучшения зависят от поддержания хороших отношений вместо чётких стандартов. Проактивный подход к SEO, посредством правильного запуска, направлен на изменение этой ситуации.

Что на самом деле означает SEO Commissioning

Ведущие компании сейчас сосредотачиваются на SEO прямо с начала проекта, вместо того, чтобы ждать, пока веб-страница выйдет в эфир. Это означает, что они встраивают поисковую оптимизацию в начальные этапы планирования создания цифрового контента.

На данном этапе речь идет не о том, *можно ли* улучшить страницу для поисковых систем, а о том, была ли она изначально разработана так, чтобы они могли ее понять. Такие вещи, как организация контента, поведение страницы, представление информации, связь между страницами через ссылки и соответствие запросам пользователей, определяются до создания страницы. Принятие этих решений на ранней стадии означает, что поисковая видимость встроена *в* веб-сайт, а не исправляется позже.

Представьте себе строительство небоскреба. Сложные проекты, подобные этому, часто используют ‘заказчика по вводу в эксплуатацию’ – человека, который не занимается непосредственно строительством, но следит за тем, чтобы все работало вместе. Он проверяет, что отопление, лифты, электрические системы, окна, пожарные сигнализации и все остальные части функционируют как единая унифицированная система. Без этой координации здание может быть завершено, но оно не будет фактически *работать* должным образом.

Подобно обеспечению качества, SEO важен в цифровом мире. Но вместо исправления проблем *после* запуска веб-сайта или контента, SEO помогает планировать все с самого начала. Он определяет, как создается контент, как работают веб-дизайны и как организована информация, чтобы поисковые системы и ИИ могли легко ее понять.

Когда SEO вовлекается с самого начала проекта, команды переключают свое внимание с исправления проблем после их появления на проактивное определение того, что необходимо для успеха контента. Это превращает SEO из простой службы исправления в неотъемлемую часть процесса проектирования, обеспечивая эффективную работу цифровых систем с самого начала.

Жизненный цикл SEO-внедрения

Компании, которые регулярно используют услуги SEO, обычно проходят похожий процесс, осознают они это или нет. То, что отличает успешные команды, заключается в том, что они планируют каждый шаг, записывают его и убеждаются, что все ему следуют.

1. Определите намерение перед созданием

Каждый актив должен начинаться с чёткого понимания причины его существования с точки зрения поиска.

SEO-исследования на данном этапе фокусируются на понимании *как* люди ищут тему или продукт – чего они пытаются достичь своим поиском (информация, покупки или поиск конкретного веб-сайта) и какие результаты показывают поисковые системы. Это помогает избежать распространенной проблемы: создания отличного контента, который люди на самом деле не ищут, потому что он не соответствует их поисковым привычкам.

Размышления о том, как будет использоваться контент, заставляют нас сразу задать важный вопрос: Что заставило бы поисковую систему или ИИ выделить именно этот фрагмент контента?

Если на этот вопрос нельзя дать четкий ответ, актив не должен быть продвинут дальше.

2. Определите сигналы соответствия.

Перед началом создания или разработки контента, SEO определяет ключевые элементы, необходимые для хорошего ранжирования в результатах поиска.

Это охватывает решения о том, как мы структурируем контент, категоризируем страницы, организуем данные, используем заголовки, создаем внутренние ссылки, связываем связанные темы, обрабатываем изображения и видео, а также учитываем потребности аудитории и язык. Важно, чтобы эти решения принимались *до* того, как мы начнем создавать контент, а не после. Это гарантирует, что все будет настроено правильно с самого начала, а не попытки исправить это позже.

Соответствие требованиям становится необходимостью, а не лотереей.

3. Определите Структурные Требования

Ввод в эксплуатацию применим также к платформам и шаблонам, а не только к контенту.

Это место, где SEO действительно связывается с продуктом и инженерией, влияя на то, насколько легко контент может быть найден большой аудиторией. Это включает в себя определение фундаментальной структуры веб-сайта – такие вещи, как дизайн URL, как строятся шаблоны, как загружаются страницы, куда ведут навигационные ссылки, стратегии внутренней перелинковки и как контент организован для детализации. Это не просто предложения; это важные строительные блоки, которые влияют на то, как поисковые системы понимают и индексируют потенциально тысячи страниц в долгосрочной перспективе.

Если вы встроите SEO в систему с самого начала, это автоматически поможет людям находить ваш контент, вместо того, чтобы полагаться на кого-то, кто будет вручную улучшать его позже.

4. Предварительная проверка перед запуском (Поисковое QA)

Перед релизом, SEO проверяет, были ли фактически реализованы требования к заказу.

Это включает в себя проверку того, может ли веб-сайт быть просканирован и проиндексирован поисковыми системами, проверку точности структурированных данных, обеспечение последовательного использования сущностей, подтверждение того, что внутренние ссылки работают должным образом, и убеждение в том, что контент является полным и релевантным тому, что ищут пользователи. Этот процесс часто путают со стандартной проверкой качества SEO, но он отличается от простого исправления ошибок. Цель не в том, чтобы *найти* проблемы, а в том, чтобы *подтвердить*, что все уже соответствует установленным требованиям.

Когда ввод в эксплуатацию выполнен правильно, этот этап происходит быстро и предсказуемо.

5. Мониторинг после запуска & Обратная связь

Ввод в эксплуатацию не заканчивается с запуском.

Как SEO-эксперт, я сосредотачиваюсь на том, как веб-сайт работает *фактически* по сравнению с нашими ожиданиями. Это означает, что я постоянно смотрю на такие вещи, как наша видимость в результатах поиска, выигрываем ли мы в избранных фрагментах, как ИИ цитирует наш контент и правильно ли мы нацелены на ключевые слова. Я также анализирую, как структура нашего сайта работает на всех страницах. Лучшая часть? Мы используем реальные данные поиска, чтобы улучшить нашу стратегию, создавая цикл непрерывного улучшения. Речь идет не только об исправлении проблем *после* их возникновения; речь идет о внедрении SEO *в* процесс, так что каждое обновление делает ситуацию лучше.

Где ввод в эксплуатацию существует в рабочем процессе предприятия.

Для выполнения работы необходимо находиться там, где принимаются решения.

Это предполагает интеграцию SEO непосредственно во все этапы разработки продукта – от первоначальных требований и планирования контента, до дизайна веб-сайта, сроков реализации проекта, стратегий запуска и финальных обзоров. Вместо того, чтобы проверять SEO как дополнительную задачу, оно должно быть обязательным одобрением перед публикацией чего бы то ни было.

Это разница между SEO как услугой и SEO как инфраструктурой.

Почему эта модель меняет всё.

Обработка SEO как сервисной службы поддержки – с заявками и запросами – приводит к задержкам и делает всё зависимым от одного шага за другим. Вместо этого, сосредоточение на проактивной SEO-работе – как на профилактическом обслуживании – набирает обороты и позволяет избежать проблем до их возникновения. Положительные эффекты от этого подхода быстро растут.

Когда создаётся новый контент, он сразу же оптимизируется для поиска, что делает процесс быстрее, а не медленнее. Количество ошибок уменьшается, поскольку проблемы выявляются и устраняются на ранних этапах. Соблюдение нормативных требований становится проще, даже для большого веб-сайта. Информация организована с самого начала, чтобы компьютеры могли легко её найти. И вместо того, чтобы быть дополнением, хорошее SEO становится естественной частью процесса создания контента.

Как SEO-эксперт, я обнаружил, что переход на комиссионную модель — это революция. Она устраняет необходимость гадать – и постоянно *просить* о чём-либо – при получении результатов. Вместо того, чтобы полагаться на одолжения или надеяться, что кто-то расставит приоритеты для SEO, это становится предсказуемым результатом, когда мы создаём надёжную систему, в которой все извлекают выгоду из успеха. Это действительно согласовывает наши цели и делает достижение топовых позиций гораздо более надёжным.

Суровая правда

Многие SEO-проблемы крупных компаний на самом деле вызваны внутренними проблемами. Часто SEO-команды привлекаются слишком поздно в процессе, не имеют достаточных полномочий для принятия решений, застревают в простом исправлении проблем вместо разработки стратегии и оцениваются на основе результатов, определяемых другими отделами. Правильная интеграция SEO с самого начала решает эти проблемы.

Это продвигает SEO до точки, где успех в поиске действительно создается: в момент принятия решений.

Предстоящее

Запуск проекта определяет *когда* происходят события, но не *кто* за них отвечает. В нашей следующей статье будет объяснено, почему усилия по SEO часто оказываются недостаточными, если все не понимают свои роли, и как компаниям необходимо установить чёткую ответственность, чтобы эти запуски были действительно эффективными и масштабируемыми.

Смотрите также

2026-03-18 16:11

Профили Bing Business с слайдером изображений

Как профессионал в области цифрового маркетинга, я заметил новую интересную функцию в Microsoft Bing. Теперь, когда кто-то ищет местный бизнес, Bing отображает слайдер изображений непосредственно в карточке этого бизнеса в результатах поиска. Если бизнес загрузил фотографии в свой Bing Business Profile, потенциальные клиенты могут легко просматривать их прямо там, даже не переходя на веб-сайт бизнеса. Это отличный способ визуально продемонстрировать, что предлагает бизнес, и это определенно может повысить вовлеченность!

Как SEO-эксперт, я подтверждаю, что эта функция теперь активна! Khushal Bherwani поделился в X информацией о том, что она абсолютно новая, и я включил GIF ниже, чтобы показать вам, как она работает.

Вот статичное изображение:

ð Бизнес-профиль Bing с кнопками «следующий» и «предыдущий» для карусели изображений.

‘ Khushal Bherwani (@b4k_khushal) 26 февраля 2026 года.

Смотрите также

2026-03-18 15:44