Google расширяет UCP корзиной, каталогом и адаптацией.

Это первое обновление UCP с момента представления Google протокола в январе на NRF. Функции Cart и Catalog в настоящее время доступны в качестве черновиков, а Identity Linking был завершен и выпущен в качестве стабильной версии.

Что делают новые возможности

Дополнения расширяют возможности ИИ-агентов в рамках торговых возможностей на базе UCP.

Как специалист по цифровому маркетингу, я много работаю с ‘Carts’. По сути, они позволяют клиентам добавлять и сохранять несколько товаров из магазина, как виртуальную корзину для покупок. Представьте себе это как способ для покупателей изучить варианты *перед* тем, как они что-либо купят. Речь идет о том, чтобы позволить им создать свой идеальный выбор, а затем легко преобразовать эту ‘Cart’ в процесс оформления заказа, когда они будут готовы завершить покупку. Это ключевая часть пользовательского опыта и помогает направлять клиентов на протяжении всего процесса покупки.

Как вебмастер, я обнаружил, что функция Catalog невероятно полезна. Она позволяет нашим агентам мгновенно получать актуальную информацию о продуктах – например, различные размеры и цвета, текущие цены и наличие товара на складе – непосредственно от розничного продавца. Мы можем либо искать продукты, либо находить их напрямую, если у нас есть ID продукта, что делает все очень эффективным.

Как цифровой маркетолог, я рад недавнему обновлению, которое действительно улучшает то, как мы обрабатываем обнаружение продуктов. Ранее мы были ограничены использованием товарных лент, но теперь наши агенты могут фактически запрашивать данные из живого каталога напрямую. Это означает, что мы можем предоставить гораздо более точную и актуальную информацию о продуктах клиентам – большой шаг вперед!

Identity Linking позволяет покупателям связывать свои учётные записи из разных магазинов с платформами, работающими на UCP, используя безопасный метод под названием OAuth 2.0. Это означает, что вознаграждения, такие как скидки по программе лояльности, цены для участников или бесплатная доставка, по-прежнему могут применяться, даже если покупатель использует AI Mode или Gemini для совершения покупки, вместо того, чтобы покупать напрямую на веб-сайте магазина.

Связывание учётных записей изначально было включено в первоначальный дизайн UCP. Google недавно объявила о нём, а также о функциях Корзины и Каталога, как об опциях, доступных пользователям UCP.

Все три возможности являются необязательными. Продавцы выбирают, какие из них поддерживать.

Merchant Center Onboarding

Google также объявила, что упрощает присоединение ритейлеров к Universal Checkout (UCP) через Merchant Center. Они стремятся привлечь предприятия любого размера и планируют запустить улучшенный процесс в ближайшие несколько месяцев.

Центр продавцов Google сообщает, что функция оформления покупок в магазине всё ещё тестируется с ограниченным числом розничных продавцов. Заинтересованные продавцы могут подать заявку через форму. Важно отметить, что кнопка оформления заказа будет отображаться только в списках продуктов, которые используют конкретный атрибут продукта ‘native_commerce’.

Commerce Inc., Salesforce и Stripe объявили о начале использования UCP. Google сообщает, что его версия будет доступна в ближайшее время, и ожидается, что другие компании последуют их примеру.

Если розничные продавцы напрямую не подключаются к системе UCP, эти поставщики могут предложить поддержку, которая облегчит участие, снижая потребность в сложной технической работе.

Почему это важно

Теперь ритейлеры, у которых нет собственных технических команд, могут легко подключиться к Merchant Center и использовать сторонние платформы, устраняя необходимость в сложных пользовательских интеграциях.

Функции Корзины и Каталога расширили возможности UCP. Изначально UCP обрабатывал только покупки отдельных товаров. Теперь агенты могут создавать корзины с несколькими товарами и получать информацию о продуктах в режиме реального времени. Это развитие приближает UCP к предложению полного опыта покупок в AI-платформах Google.

Ритейлеры по-прежнему сталкиваются с теми же проблемами, которые мы обсуждали в январе. Покупки совершаются через Google, а не на собственных веб-сайтах ритейлеров. Функция Identity Linking от Google предлагает потенциальные преимущества для программ лояльности, которые некоторые ритейлеры могут приветствовать, в то время как другие могут беспокоиться о том, что это снижает стимул для клиентов совершать покупки напрямую на их сайтах.

Заглядывая в будущее

Google объявила о добавлении функций, позволяющих пользователям сравнивать продукты напрямую в результатах поиска с использованием искусственного интеллекта, в приложении Gemini и на других платформах. Хотя они и не назвали точную дату, Google сообщает, что эти функции будут доступны в Merchant Center в течение следующих нескольких месяцев.

Смотрите также

2026-03-19 19:09

Контентный ров мертв. Ров контекста – вот что выживает.

Представьте, что кто-то задает ChatGPT вопрос, на который ваша библиотека могла бы ответить идеально, но в ответе упоминается конкурент. Это происходит не потому, что ответ конкурента лучше, а потому, что они опубликовали уникальные данные, которые ChatGPT не смог найти нигде больше. Ваша информация была точной, но у конкурента было что-то незаменимое. Теперь именно это различие определяет, кому будет засчитано, а кому нет.

Проблема суммаризации теперь является проблемой контент-стратегии.

Современный ИИ может мгновенно суммировать объёмный контент – например, руководство объёмом в 3000 слов – всего в три предложения. Это меняет наше представление о ценном контенте. Если ИИ может полностью заменить ваш контент его кратким изложением, у вас нет конкурентного преимущества. Краткое изложение, а не ваш оригинальный контент, становится тем, что люди ценят, и ваша страница просто предоставляет информацию, использованную для создания этого краткого изложения, прежде чем быть проигнорированной.

Мы уже видим, как ИИ меняет то, как мы взаимодействуем с информацией в сети. Например, Gmail использует ИИ для суммирования маркетинговых писем, а AI Overviews от Google предоставляют ответы прямо на странице поиска, над обычными ссылками. Microsoft Copilot может даже обрабатывать покупки без необходимости посещения веб-сайта. Samsung планирует расширить свои AI-функции на гораздо больше устройств, что означает, что AI-powered summaries и рекомендации станут еще более распространенными в нашей повседневной жизни – намного более, чем сейчас.

Пространство между вашим контентом и вашей аудиторией растёт и становится всё более влиятельным. Когда этот посредник может предоставить ту же ценность, что и ваш контент, без необходимости посещения исходного источника, сам контент теряет свою ценность. Вместо этого, действительно важным становится всё то, что этот посредник *не может* воспроизвести.

Что такое контент Commodity на самом деле.

Давайте будем честны: многое из того, что маркетологи считают отличным контентом, на самом деле довольно стандартно. Хотя ясное изложение, точные факты и хорошая организация необходимы, их уже недостаточно. Это просто минимальные требования – как наличие веб-сайта, работающего на телефонах, несколько лет назад. Теперь, когда ИИ может легко создавать достойные резюме информации практически по любой теме, контент должен быть чем-то большим, чем просто правильным и хорошо написанным, чтобы по-настоящему выделиться.

The Context Moat Defined

Категории конкретны и заслуживают чёткого наименования:

  • Методология от первого лица и тематические исследования со всеми подробностями. Не «SaaS-компания улучшила удержание». Вместо этого: «Мы снизили отток клиентов с 8,2% до 4,1% за шесть месяцев, реструктурировав процесс адаптации вокруг трех конкретных вмешательств, и вот именно что мы сделали». Конкретика – это ров, потому что никто другой не присутствовал при принятии этих решений.
  • Оригинальное тестирование и эксперименты. Вы провели тест, контролировали переменные и измерили результат. Ни у кого больше нет этих данных, если вы не решите опубликовать их, что означает, что модель должна обратиться к вам или обойтись без них.

Почему это игра на повышение видимости в ИИ, а не просто стратегия контента.

Если вы следите за нашей публикацией, вам известно, что поиск на основе ИИ значительно отличается от традиционных методов поиска. Я ранее обсуждал, как системы ИИ выбирают лучшие результаты, разницу между тем, что люди считают релевантным, и тем, что модели считают полезным, и почему просто быть правильным недостаточно, чтобы что-то отображалось на видном месте. Концепция «контекстного рва» объединяет все эти идеи в ключевую стратегическую точку.

Первичные данные – это не просто настройка взаимодействия или запуск рекламы – это предоставление ИИ информации, необходимой для эффективной работы. Компании, которые обладают уникальными данными о своих клиентах и операциях, находятся в сильной позиции с ИИ, *если* они решат их использовать. В настоящее время большинство не делятся этими данными, и разница между тем, что компании *знают* и к чему ИИ может *получить доступ*, является местом, где кроются самые большие возможности.

Перераспределение инвестиций

Недавний опрос более чем 11 000 лидеров в области маркетинга показывает, что компании в настоящее время тратят около 11,2% своих бюджетов на цифровой маркетинг на сбор и использование собственных данных клиентов (first-party data), и планируют увеличить эту цифру до 15,8% к 2026 году. В целом, контент-маркетинг обычно получает от 25% до 30% от общего маркетингового бюджета, при этом более крупные компании особенно сосредотачиваются на таких вещах, как интерактивные возможности, видеоконтент и способы его распространения.

Проверьте контент своего веб-сайта, чтобы оценить его уязвимость к воздействию ИИ. Начните с ваших 50 самых популярных или важных страниц. Для каждой из них спросите себя: мог бы конкурент легко создать нечто очень похожее, используя только общедоступную информацию? Если ответ – да, этот контент легко заменить. Хотя сейчас он может работать, он не выдержит конкуренции с ИИ-обобщениями. Как только ИИ сможет предоставить ту же информацию без необходимости посещения вашей страницы, этот контент потеряет свою ценность.

Оцените свой контент. Если большая его часть (80%) является базовой и легко находится в других местах, в то время как лишь небольшая часть (20%) предлагает уникальные идеи или сильное конкурентное преимущество, ваша контент-стратегия не готова к тому, как ИИ повлияет на поиск и обнаружение.

Вам не нужно начинать с нуля; вам просто нужно сосредоточить свои ресурсы на создании уникального контента. Для большинства компаний это означает внесение четырех ключевых изменений:

  • Публикация внутренних данных, которые уже существуют, но не распространяются. Большинство организаций собирают гораздо больше собственных данных, чем когда-либо публикуют. Сравнительные показатели поведения клиентов, операционные метрики, отраслевые данные об эффективности и т.д. Команда исследователей владеет этими данными, команда продукта владеет этими данными, а отдел маркетинга еще не преобразовал их в опубликованный контент, который могут обнаружить и процитировать системы искусственного интеллекта.
  • Инвестирование в оригинальные исследования как в постоянное редакционное обязательство. Ежегодные опросы, квартальные показатели, продольные исследования. Они дороги в производстве и невозможны для копирования конкурентами, и это именно то, что требуется. Они создают постоянные цитатные зависимости, которые со временем усугубляются.

Существующее содержимое не бесполезно.

Давайте будем откровенны: называть базовый онлайн-контент «мусором» – это чрезмерная реакция. Этот тип контента по-прежнему играет важную роль – он помогает людям находить информацию, привлекает посетителей на веб-сайты, стимулирует продажи и формирует постоянное присутствие в сети для брендов.

Сильное конкурентное преимущество заключается не в наличии функций, которых нет у других, – а в создании прочной базы, которая необходима всем. Простого наличия чего-то уникального уже недостаточно, потому что конкуренты неизбежно разработают аналогичные основы.

Я не предлагаю полностью прекратить создание базового контента. Я говорю о том, что вам нужно перестать полагаться на этот тип контента, чтобы выделиться среди конкурентов. Это разные идеи – полное прекращение производства нереалистично для большинства предприятий, но перенос вашего фокуса и ресурсов – это разумный стратегический ход.

Как человек, который давно занимается созданием веб-сайтов, я заметил чёткую тенденцию с переходом к искусственному интеллекту в поиске. Речь не идёт о *замене* того, что мы уже знаем о SEO, а о построении *на основе* этого. Такие вещи, как техническое SEO и надёжная оптимизация на странице, по-прежнему имеют решающее значение, и весь ваш существующий контент по-прежнему важен. Однако этого недостаточно. То, что действительно имеет значение сейчас, — это построение того, что я называю «контекстным рвом» — по сути, глубокое понимание и удовлетворение потребностей вашей аудитории таким образом, который искусственный интеллект не может легко повторить. Речь идёт о добавлении этого дополнительного уровня опыта и релевантности.

Где это вас оставит.

Контент все больше разделяется на категории высокого и низкого качества, и эта тенденция ускоряется, поскольку ИИ теперь является тем, как большинство людей находят информацию в интернете.

Организации второго уровня создают контент, который хорошо написан, надежен и полезен. Этот контент может быть создан любой компетентной командой с использованием общедоступной информации. Хотя они помогают улучшить данные, используемые для генерации ответов, они не контролируют, как их информация появляется в этих ответах. По сути, они предоставляют исходный материал, а не готовый продукт.

Планируя свой следующий бюджет, не спрашивайте, создаете ли вы *достаточно* контента. Вместо этого сосредоточьтесь на том, создаете ли вы контент, который уникален для вашей организации – контент, которого нет ни у кого другого.

Настоящая безопасность теперь исходит от обладания уникальными знаниями, а не просто информацией как таковой. Речь идет о конкретном понимании, которое *вы* привносите.

Смотрите также

2026-03-19 16:40

Что данные файла журнала могут рассказать мне, чего не могут инструменты? – Спросите SEO-специалиста.

Для сегодняшнего Ask An SEO мы отвечаем на вопрос:

«Как SEO-специалисту, стоит ли мне использовать данные из лог-файлов, и что они могут рассказать мне, чего не могут инструменты?«

Что такое файлы журналов?

Файлы журналов — это, по сути, подробная запись всего, что происходит на веб-сайте. Сервер веб-сайта создает эти файлы, и они обычно содержат информацию о том, кто посетил – люди или автоматизированные боты, – какие страницы они просматривали и когда они это сделали.

Файлы журналов обычно записывают подробную информацию о взаимодействии с веб-сайтом, включая IP-адрес посетителя, то, что они используют для доступа к сайту (например, веб-браузер или бот поисковой системы), время посещения, конкретную просмотренную страницу (URL) и ответ сервера на их запрос.

Пример журнала:

6.249.65.1 - - [19/Feb/2026:14:32:10 +0000] "GET /category/shoes/running-shoes/ HTTP/1.1" 200 15432 "-" "Mozilla/5.0 (Macintosh; Intel Mac OS X 14_2) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/121.0.0.0 Safari/537.36" 
  • 6.249.65.1Это IP-адрес пользовательского агента, который посетил веб-сайт.
  • 19/Feb/2026:14:32:10 +0000 – Это метка времени попадания.
  • GET /category/shoes/running-shoes/ HTTP/1.1 – Метод HTTP, запрашиваемый URL и версия протокола.
  • 200 – Код статуса HTTP.
  • 15432 – Размер ответа в байтах.
  • Mozilla/5.0 (Macintosh; Intel Mac OS X 14_2) AppleWebKit/537.36 (KHTML, например Gecko) Chrome/121.0.0.0 Safari/537.36 – пользовательский агент (т. е. бот или браузер, запросивший файл)

Для чего можно использовать файлы журналов?

Журналы веб-сайта предоставляют наиболее точную запись о том, как посетители – будь то люди или автоматизированные боты – перемещаются по вашему сайту. Хотя они обычно считаются наиболее надежным источником информации о взаимодействии с веб-сайтом, такие факторы, как кэширование и настройка сервера, иногда могут делать журналы неполными.

Что сканируют поисковые системы.

Журналы файлов действительно полезны для SEO, потому что они показывают нам, какие именно страницы нашего веб-сайта посещают поисковые боты.

Журналы показывают нам, какие страницы посещают поисковые системы и как часто. Они помогают нам подтвердить, что наши важные страницы индексируются, и что страницы, которые часто меняются, проверяются чаще, чем страницы, которые остаются неизменными.

Как вебмастер, одно из первых, что я делаю при оптимизации сайта, – это проверка файлов журналов. Они бесценны для выявления ‘потери при сканировании’ – по сути, страниц, по которым боты поисковых систем заходят без необходимости. Это могут быть URL-адреса с множеством случайных символов или бесконечная постраничная навигация. Если я вижу, что боты тратят время на эти страницы вместо моего важного контента, я знаю, что мне нужно это исправить. Файлы журналов быстро показывают мне, что сканируется слишком часто, позволяя мне сосредоточиться на повышении эффективности сканирования моего сайта.

Эта информация может быть критически важной при выявлении проблем с обнаружением страниц и сканированием.

Истинное распределение бюджета ползучего поиска

Просмотр лог-файлов вашего веб-сайта — это надежный способ понять, как поисковые боты обходят его. Этот анализ показывает, какие страницы обходятся часто, а какие нет, помогая вам оптимизировать бюджет обхода вашего сайта.

Это важно для определения страниц, которые не связаны должным образом, или если поисковые системы отдают приоритет менее важным разделам сайта, а не более важным.

Файлы журналов могут быть полезны даже после завершения сложных SEO-задач. Например, после переноса веб-сайта на новый сервер проверка файлов журналов может показать, насколько быстро поисковые системы находят и индексируют обновлённый контент.

Вы можете использовать файлы журналов веб-сайта, чтобы узнать, помогли ли внесенные вами изменения в макет сайта поисковым системам более эффективно его сканировать.

Когда вы тестируете изменения на своём веб-сайте для SEO, важно проверить, действительно ли поисковые боты увидели эти изменения. Вы можете использовать файлы журналов, чтобы узнать, проиндексировали ли боты страницы, которые вы тестируете, что позволяет узнать, оценивается ли ваш тест.

Поведение при сканировании во время технических проблем

Журналы веб-сайта полезны для поиска технических проблем. Иногда инструмент, используемый для сканирования веб-сайта, может сообщать о статусе, отличном от того, который бот фактически испытывает при посещении страницы. Журналы — это единственный надежный способ подтвердить эти расхождения.

Журналы файлов помогают вам отслеживать, испытывают ли боты временные проблемы с веб-сайтом и как быстро они успешно возвращаются на эти страницы после устранения проблем.

Подтверждение бота

Анализ файлов журналов может помочь вам отличить легитимных ботов от тех, кто притворяется легитимными. Это крайне важно для определения, маскирует ли кто-то вредоносных ботов под поисковых роботов – таких как Googlebot или краулер Microsoft – чтобы обойти систему безопасности вашего сайта. Эти замаскированные боты могут пытаться украсть данные или выполнять другие вредоносные действия.

Анализ журналов веб-сайта помогает определить источник ботов, идентифицируя их IP-адреса. Это позволяет ИТ-командам сравнивать эти адреса со списками известных, легитимных ботов – таких как Googlebot – гарантируя, что они случайно не заблокируют поисковые системы, которые помогают с видимостью веб-сайта.

Обнаружение сиротских страниц

Файлы журналов помогают находить внутренние страницы, которые некоторые инструменты могут пропустить. Например, Google может найти страницу по ссылке с другого веб-сайта, но типичный инструмент сканирования может найти ее только в том случае, если на нее есть ссылка внутри вашего собственного сайта или она указана в карте сайта.

Проверка лог-файлов вашего веб-сайта может помочь вам найти страницы, о существовании которых вы не знали – их часто называют «сиротскими страницами». Лог-файлы также показывают старые URL-адреса, которые всё ещё сканируются, даже если они больше не должны быть доступны. Это могут быть устаревшие ссылки или части вашего сайта, которые не были правильно перемещены при обновлении контента.

Что другие инструменты не могут сказать нам, что могут файлы журналов.

Если вы ещё не анализируете файлы журналов, скорее всего, вы используете другие SEO-инструменты, чтобы попытаться понять трафик вашего веб-сайта – но файлы журналов могут предложить более полную картину.

Программное обеспечение для аналитики

Инструменты, такие как Google Analytics, могут показать вам все страницы на веб-сайте, даже если боты поисковых систем не могут до них добраться.

Как SEO-эксперт, я больше всего полагаюсь на веб-аналитику. Они действительно глубоко проникают в то, как пользователи *фактически* ведут себя на сайте. Это не просто о цифрах трафика – это помогает мне определить, какие страницы приносят результаты для бизнеса, и, что не менее важно, какие из них не справляются со своей задачей. Речь идет о понимании того, что работает, а что нужно улучшить, чтобы повысить конверсию.

Однако, эти инструменты не раскрывают подробности об автоматизированной активности. Большинство аналитических программ фактически удаляют данные от ботов и других нечеловеческих источников, фокусируясь исключительно на информации от реальных пользователей.

Эти инструменты помогают нам понять, как люди используют веб-сайт, но они не дают никакой информации о том, как поисковые боты по нему перемещаются. Мы не можем отследить, какие страницы посетил бот и как часто он это делает.

Google Search Console/Bing Webmaster Tools

Инструменты поисковых систем обычно показывают, насколько здоров ваш веб-сайт технически, указывая на такие вещи, как ошибки сканирования и когда страницы были проверены в последний раз. Но для более крупных веб-сайтов эти данные часто суммируются и основаны на выборках, поэтому бывает трудно получить подробную информацию об отдельных страницах.

Они делятся только деталями о своих ботах, что затрудняет получение полной картины активности ботов. Также сложно понять, как ведут себя боты от компаний, не имеющих инструментов, таких как поисковые консоли.

Веб-краулеры

Веб-краулеры могут имитировать, как боты поисковых систем исследуют ваш сайт, показывая, какие его части технически доступны. Однако, эти инструменты не раскрывают, к каким страницам бот *фактически* обращался. Они могут сообщить вам, можно ли было просканировать страницу, но не предоставляют никаких данных о том, посещал ли бот её, когда это делал, или как часто.

Веб-краулеры часто ведут себя как боты в соответствии с *вами* заданными условиями, что может не отражать то, как боты реальных поисковых систем фактически воспринимают сайт. Без серверных журналов трудно узнать, как поисковые системы будут перемещаться по веб-сайту во время проблем, таких как DDoS-атака или недоступность сервера.

Почему вы можете не использовать файлы журналов

Существует множество причин, по которым SEO-специалисты могут еще не использовать файлы журналов.

Сложность в их получении

Файлы журналов могут быть сложными для доступа. Возможно, вам потребуется обратиться за помощью к вашей команде разработчиков. Если вашей команды нет непосредственно с вами, вам может потребоваться сначала выяснить, кто на самом деле имеет доступ к этим файлам.

Потребности пользовательского интерфейса

Просто получение доступа к файлам журналов – это только первый шаг. Вам также нужно будет уметь интерпретировать то, что они показывают. Сырые файлы журналов – это, по сути, текстовые файлы, заполненные строками и строками данных.

Давайте будем честны, файлы журналов не отличаются удобством для пользователя. Как SEO-эксперт, я часто сталкиваюсь с необходимостью изучать их, и, честно говоря, вам обычно нужен специальный инструмент, чтобы понять все эти данные. Эти инструменты различаются по цене – некоторые позволяют загрузить файл и получить мгновенный анализ, в то время как другие подключаются непосредственно к вашим журналам для мониторинга в режиме реального времени. Лучший вариант зависит от того, как часто вам нужно анализировать ваши логи и какой глубины понимания вы ищете.

Требования к хранилищу

Также необходимо сохранять файлы журналов. Помимо проблем с безопасностью, таких как соответствие GDPR, они могут стать сложными для долгосрочного хранения из-за их быстро растущего размера.

Крупные интернет-магазины могут генерировать сотни гигабайт файлов журналов каждый месяц. Хранение такого объема данных представляет собой значительную техническую задачу. Хотя сжатие файлов помогает, часто необходимо анализировать журналы в течение нескольких месяцев для устранения неполадок или выявления тенденций. Такое долгосрочное хранение данных может быстро сделать хранение дорогим.

Воспринимаемая техническая сложность

После того, как вы преобразовали свои файлы журналов в читаемый и удобный формат, следующим шагом является определение того, как их анализировать.

Многие SEO-специалисты избегают использования лог-файлов, потому что они кажутся сложными. По сути, лог-файлы — это просто записи активности веб-сайта, и эти необработанные данные могут показаться пугающими для сортировки.

Должны ли SEO-специалисты использовать лог-файлы?

Да, если вы можете.

Некоторые важные открытия полностью зависят от информации, найденной в лог-файлах. Хотя ваши текущие инструменты могут помочь в расследованиях, они не предоставят полного понимания сами по себе.

Смотрите также

2026-03-19 15:42

Google: 404 Crawling означает, что Google открыт для большего количества вашего контента

Джон Мюллер из Google недавно объяснил, что повторное сканирование Googlebot страниц, показывающих ошибку 404, на самом деле является хорошим знаком. Это означает, что Google всё ещё пытается понять ваш веб-сайт и поддерживать его индекс в актуальном состоянии.

Код состояния 404

Сообщение ‘404’, которое появляется как код ошибки, часто беспокоит владельцев веб-сайтов и специалистов по поисковой оптимизации. Оно звучит как признак того, что что-то не так и требует исправления, но это не всегда правда.

Ошибка 404 означает, что сервер не смог найти запрошенную вами веб-страницу. Это не обязательно проблема с самим веб-сайтом, а лишь то, что конкретной страницы не существует по этому адресу. По сути, запрос не может быть выполнен, потому что страница не найдена.

Большинство людей называют это Ошибкой 404, но официальный термин на самом деле ‘404 Not Found’. Это название чётко объясняет, что оно означает: веб-страница, которую вы запросили, не была найдена.

Скриншот официального веб-стандарта для кода состояния 4o4

Google продолжает сканировать страницы 404.

Пользователь Reddit сообщил о странной проблеме с Google Search Console: он по-прежнему показывает старые, несуществующие страницы как найденные через sitemaps, даже после того, как эти страницы были удалены из файла sitemap.

Пользователь полагает, что Search Console активно проверяет отсутствующие страницы, но на самом деле проверку выполняет Googlebot. Search Console просто показывает, когда эти проверки не удались.

Они обеспокоены тем, что могут зря потратить свой бюджет сканирования, и задаются вопросом, не лучше ли отправлять код ошибки 410.

Как цифровой маркетолог, я заметил, что Google Search Console всё ещё пытается получить доступ к множеству страниц на моём сайте, которых не существует – они выдают ошибки 404. Когда я проверяю инструмент Page Inspection и Crawl Stats, он показывает, что эти несуществующие страницы ‘обнаруживаются’ через мою карту сайта (page-sitemap.xml). Похоже, что карта сайта указывает на URL-адреса, которые больше не активны, и Google всё ещё следует по этим ссылкам.

Проблема:

Когда я открываю фактический файл page-sitemap.xml в браузере прямо сейчас, ни одного из этих URL-адресов 404 в нём нет.

Карта сайта содержит только 21 хорошую, активную страницу.

Я хочу продолжать отправлять свою карту сайта – она точна и включает только действительные страницы. Однако частые повторные обходы тратят мой бюджет обхода ненужным образом.

Сталкивался ли кто-нибудь с этим раньше?

В конце концов, Google остановится сам по себе?

Стоит ли перенаправить 404 на 410 Gone?

Или есть другой способ сообщить GSC «эй, их больше нет навсегда»?

О сканировании страницы 404 Google.

Google регулярно проверяет наличие страниц с ошибкой 404, предполагая, что они могли быть временно удалены, а затем восстановлены. По словам Джона Мюллера из Google, постоянное обнаружение страниц 404 на самом деле может быть хорошим знаком, указывающим на то, что Google считает ваш сайт активно поддерживаемым и обновляемым.

Около 404 Страница не найдена Ответ

Около 410 Gone Response

Google по сути обрабатывает 404 и 410 одинаково.

Когда веб-страница удаляется навсегда, сервер в идеале должен отправлять сообщение ‘410’. Однако Google обычно обрабатывает ответы ‘410’ примерно так же, как и ошибки ‘404’ (страница не найдена). Это означает, что Google может продолжать проверять, вернулась ли удалённая страница, даже после получения сигнала ‘410’.

Как SEO-эксперт, я постоянно вижу данные, которые указывают на то, что использование статусного кода 410 является немного более быстрым способом удаления страницы из индекса Google по сравнению с другими методами. Он просто как будто немного быстрее сигнализирует Google о том, что страница исчезла навсегда.

Google подтверждает факты об кодах ответа 404 и 410.

Недавно Джон Мюллер из Google уточнил, что ошибки 404, отображаемые в Search Console, не обязательно нуждаются в исправлении. Он также объяснил, что изменение ошибки 404 на ошибку 410 не повлияет на эти отчеты, и большое количество ошибок 404 на самом деле может быть хорошим знаком, указывающим на то, что Google активно сканирует и индексирует ваш сайт.

Эти страницы не вызывают никаких проблем, поэтому лучше оставить их как есть. Даже если вы удалите их с ошибкой 410, Google, вероятно, будет продолжать повторно сканировать их в течение довольно долгого времени. Это на самом деле говорит о том, что Google рад индексировать больше контента с вашего сайта.

Недопонимания относительно 4XX ответов сервера.

Беседа на Reddit продолжалась, и модератор сабреддита r/SEO предложил вероятное объяснение: Googlebot, вероятно, сначала обнаружил URL через карту сайта, поэтому Search Console сообщает об этом как об источнике обнаружения.

В чём модератор ошибся, так это в объяснении значения кода ответа 404.

Ошибка 404 означает, что веб-страница, которую вы ищете, сейчас не работает, но владелец веб-сайта работает над ее исправлением. Google регулярно проверяет эти нерабочие ссылки, чтобы узнать, были ли они исправлены.

Модератор допускает две ошибки в своем ответе.

Ошибка ‘404’ просто означает, что веб-страница, которую вы ищете, не найдена. Это все, что она означает! Если вы хотите увидеть официальное определение, вот веб-стандарт для кода ошибки 404.

Многие люди думают, что код статуса 404 означает, что что-то сломано на веб-сайте. Однако, 404 просто означает, что запрошенная веб-страница не существует по этому адресу. Проблема не в самом веб-сайте, а в ссылке или запросе, пытающемся получить доступ к несуществующей странице. Это запрос на что-то, чего нет, а не указание на то, что страница сломана, несмотря на то, во что верят некоторые.

Модератор Reddit был неправ, предполагая, что Google проверяет, было ли реализовано исправление. Google просто проверяет, исчезла ли страница неожиданно. Ошибка 404 не всегда требует исправления – часто страница удаляется намеренно, и Google на самом деле рекомендует использовать код ответа 404 в таких случаях.

Это не ново.

Модератор Reddit не ошибся, поделившись этой информацией – так всегда работала Google. Google обычно придерживается установленных веб-стандартов.

Владельцы веб-сайтов часто непреднамеренно создают себе проблемы. Страницы исчезают, сайты настраиваются неправильно, они выходят из строя или доступ случайно блокируется как для Google, так и для обычных посетителей. Из-за этого система сканирования Google должна быть очень устойчивой и справляться с этими распространенными ошибками.

Когда наша система сталкивается с ошибкой «страница не найдена» (404), мы временно защищаем эту страницу на 24 часа. Это дает нам время определить, была ли ошибка просто временной – возможно, страница была ненадолго недоступна или произошел сбой. Защита предотвращает немедленную маркировку ее как навсегда удаленной.

Мы повторно проверим, чтобы убедиться, что эти страницы все еще отсутствуют. Возможно, они снова появились, поэтому нам нужно подтвердить, прежде чем продолжить.

Если веб-страницу нельзя найти, вполне допустимо отображать ошибку 404. Если вы *знаете*, что страница была удалена навсегда, ошибка 410 – правильный выбор.

Мы разрабатываем нашу систему сканирования веб-страниц, чтобы она была надежной и справлялась с проблемами. Даже если ваш веб-сайт испытывает простои, нарушения безопасности или другие проблемы, мы сделаем все возможное, чтобы найти и проиндексировать ценный контент, как только он станет доступным.

Основные выводы

  • Сканирование Googlebot на наличие страниц 404 может рассматриваться как положительный сигнал того, что Google нравится ваш контент.
  • Коды состояния 404 не означают, что страница содержит ошибку; они означают, что страница не была найдена.
  • Коды состояния 404 не означают, что что-то нужно исправлять. Они лишь означают, что запрошенная страница не найдена.
  • Нет ничего плохого в отправке кода ответа 404; Google рекомендует это.
  • Search Console показывает ответы 404, чтобы владелец сайта мог решить, были ли эти страницы намеренно удалены.

https://www.youtube.com/watch?v=xp5Nf8ANfOw

Смотрите также

2026-03-19 13:41

Подлинный человеческий разговор™

В прошлую пятницу днем Digg умер. Снова.

Всего через два месяца после перезапуска генеральный директор платформы, Джастин Мезелл, опубликовал на веб-сайте сообщение, которое казалось прощальным. Несмотря на привлечение от $15 до $20 миллионов и наличие известных сторонников, таких как Кевин Роуз и соучредитель Reddit Алексис Оханиан, платформа потерпела неудачу. Её основная проблема? Ей не удалось предотвратить огромный приток ботов, которые практически сразу после запуска захватили контроль, несмотря на обещания, что ИИ поможет с модерацией.

По словам Мезелла, значительное и растущее число программ искусственного интеллекта и автоматизированных аккаунтов сейчас активно в сети. Несмотря на блокировку десятков тысяч этих аккаунтов и использование как внутренних, так и внешних инструментов для борьбы с ними, их усилия оказались недостаточными.

Как digital-маркетолог, я думаю, что произошедшее с Digg не было единичным случаем – это действительно высветило более широкую проблему с интернетом в целом. Для нас же это было особенно разрушительно, потому что весь наш бизнес строился на доверии людей к нашим рекомендациям. Доверие *было* нашим продуктом, поэтому, когда оно было поколеблено, мы почувствовали это остро.

Помни эту строчку. Она нам пригодится.

Судят за чтение

SerpApi извлекает результаты поиска из Google, используя код. В настоящее время они поданы в суд компанией Reddit, но не за прямой доступ к веб-сайту Reddit. SerpApi не посещал Reddit.com. Вместо этого, Reddit подает в суд на них за простое чтение общедоступной информации из результатов поиска Google.

Если эта правовая идея будет принята, любой SEO-специалист, который просмотрел страницу результатов поиска, может быть признан нарушителем авторских прав. По сути, простая проверка рейтинга вашего веб-сайта теперь может быть юридически рискованной.

Компания, которая публикует произведения, созданные другими, подаёт в суд на другую компанию. Иск возник из-за того, что вторая компания просматривала результаты поиска от третьей компании, которые иногда включали адрес, изначально опубликованный на Reddit.

Reddit просит суд защитить очень короткие фрагменты контента, появляющиеся на его платформе – такие вещи, как несколько названий фильмов, дата «May 17, 2024», и часть отзыва о ресторане. Они утверждают, что отображение этих фрагментов Google в результатах поиска нарушает закон об авторском праве, в частности тот же закон, изначально предназначенный для предотвращения пиратства DVD. По сути, Reddit утверждает, что просмотр этих общедоступных результатов поиска равносилен незаконному копированию фильма.

Генеральный директор SerpApi ответил на иск Reddit, указав на необычное утверждение о том, что доступ к общедоступным результатам поиска Google — то, что может сделать любой в Интернете — может быть юридическим нарушением. Он утверждал, что если логика Reddit будет принята, то просто просмотр этих результатов может быть расценен как нарушение авторских прав, что, по его мнению, не было целью первоначального закона, разработанного для предотвращения пиратства DVD.

Что действительно расстраивает, так это следующее: собственные правила Reddit, с которыми согласился каждый пользователь, чётко указывают, что пользователи владеют тем, что они публикуют. Reddit имеет только разрешение на использование контента, но не исключительные права на него. Поэтому невероятно лицемерно, что компания, которая заверила миллионы людей в том, что они владеют своими словами, сейчас борется в суде за контроль над тем, как и где эти слова читаются, и даже над тем, как на них зарабатывают.

Reddit выбрал эту модель лицензирования, вероятно, потому, что открытое заявление о том, что они будут владеть пользовательским контентом, отчудило бы сообщества, которые создали ценность платформы. Теперь, когда они присваивают этому контенту денежную стоимость, Reddit стремится изменить условия – посредством юридических действий, не привлекая создателей контента.

Если вы озадачены кажущимся слабым юридическим аргументом Reddit, причина проста: дело в деньгах. Они отдают приоритет своим финансовым интересам.

Официальные правила Reddit гласят, что пользователи сохраняют права собственности на то, что они публикуют. Однако документы, связанные с недавным публичным размещением акций компании, показывают, что Reddit заработал 203 миллиона долларов, лицензируя контент пользователей другим лицам. Это говорит о том, что Reddit теперь заявляет о контроле над этим контентом, несмотря на предыдущие утверждения о том, что он принадлежит пользователям.

Google тратит около 60 миллионов долларов в год, в то время как, по оценкам, OpenAI тратит 70 миллионов долларов. Генеральный директор Reddit Стив Хаффман, который ранее преуменьшал обеспокоенность добровольческих модераторов и пользовательского восстания, недавно сообщил инвесторам, что стоимость компании увеличилась. Он заявил, что их данные теперь больше, уникальнее и ценнее, что дает им сильное преимущество в переговорах.

Reddit изучает новую систему ценообразования, при которой стоимость доступа к его контенту будет меняться в зависимости от спроса, особенно со стороны искусственного интеллекта. Они считают, что поскольку модели ИИ все чаще используют контент Reddit, этот контент стал более ценным, и Reddit заслуживает компенсации за свой вклад в ответы, генерируемые ИИ.

Давайте чётко определим позицию Reddit, как она представлена как в его юридических документах, так и в материалах для инвесторов.

  • Она имеет право контролировать, кто получает доступ к пользовательскому контенту, которым она не владеет.
  • За этот контент следует платить больше, так как модели искусственного интеллекта используют его всё чаще.
  • Любой, кто получает к нему доступ без оплаты – даже через результат поиска Google – нарушает закон; и
  • Содержание само по себе является подлинным, ценным и незаменимым.

Эти четыре утверждения противоречат друг другу, что означает, что они не могут быть все верными. Однако, в настоящее время расследуется только последнее утверждение.

Продукт в основном состоит из ботов на данный момент.

Эта идея лежит в основе инвестиций в 130 миллионов долларов. Это обещание Google и OpenAI, что они получают реальные, естественные разговоры – такие, которые уникальны для людей, необработанные и невозможные для копирования автоматическими создателями контента.

Вот как на самом деле выглядит подлинный человеческий разговор на Reddit в 2026 году:

В июне 2025 года генеральный директор Reddit Стив Хаффман сообщил Financial Times, что платформа постоянно борется с растущей волной спама, создаваемого искусственным интеллектом. Он описал это как «гонку вооружений», и это описание оказалось удивительно точным.

На протяжении двух десятилетий мы конкурируем с теми, кто пытается повысить свою видимость на Reddit. Мы стабильно занимаем высокие позиции в результатах поисковых систем. Подобно тому, как люди стремятся преуспеть на Reddit, чтобы улучшить свои позиции в поисковых системах, теперь они сосредотачиваются на Reddit, чтобы быть замеченными моделями ИИ – это еще один способ обеспечить включение вашего контента.

Послушайте, после многих лет работы в веб-разработке, ты учишься замечать поворот, когда видишь его. Генеральный директор этой компании, продающей «человеческое общение» – сервис, приносящий 130 миллионов долларов в год – только что признался Financial Times, что по сути это был способ сбора данных для игрового ИИ. И самая дикая часть? Он представляет это как видение дальновидного человека, борющегося за правое дело, а не как извлечение прибыли из того, что большинство из нас сочло бы недостатком сервиса. Честно говоря, это довольно смелый спин.

Несколько лидеров рекламной индустрии, что неудивительно на Каннском рекламном фестивале, признались Financial Times, что намеренно публикуют контент на Reddit, чтобы повлиять на то, что ИИ-чат-боты говорят об их брендах. Они открыто признали эту практику, считая ее оправданной, поскольку их собственный генеральный директор объяснил, как это может работать.

Это происходит не только за закрытыми дверями. Вся индустрия возникла вокруг продвижения продуктов на Reddit. 404 Media сообщила об инструменте под названием ReplyGuy, который сканирует Reddit на предмет релевантных ключевых слов, а затем автоматически публикует ответы, которые тонко упоминают ваш продукт. Другие компании, такие как Redreach, ReplyHub, Tapmention и AI-Reply, еще более открыто об этом заявляют. Redreach утверждает, что публикации в Reddit теперь доминируют в результатах поиска Google, и что такие инструменты искусственного интеллекта, как ChatGPT, используют их для формирования рекомендаций по продуктам. Они утверждают, что игнорирование маркетинга в Reddit — это все равно, что игнорировать поисковую оптимизацию (SEO) много лет назад. Существует даже рынок для покупки и продажи старых аккаунтов Reddit с установленной репутацией, которые используются специально для рассылки спама и повышения позиций в поисковой выдаче.

Reddit продаёт свои реальные разговоры Google за 60 миллионов долларов в год. Недавно фейковый отзыв – размещённый ботом на аккаунте, приобретённом всего за 30 долларов – начал появляться в результатах AI-поиска Google, что привело к тому, что Google стал рекомендовать этот продукт реальным пользователям. Это подчеркивает источник данных, питающих AI Google: подлинный контент, созданный пользователями.

Моды исчезли, боты победили, и никто не ведёт счёт.

Опытные люди, которые ранее предотвращали эти проблемы, в основном больше не здесь. Изменения, внесенные Reddit в 2023 году в то, как разработчики получают доступ к его данным – изменения, которые произошли непосредственно перед тем, как компания стала публичной – обошлись бы разработчику приложения Apollo в 20 миллионов долларов в год только для продолжения работы. В ответ 7000 сообществ временно закрылись. Генеральный директор Reddit назвал добровольных модераторов оторванными от реальности и дождался, пока протест утихнет. Квалифицированные модераторы, которые использовали полезные приложения для поддержания качества, ушли, и их заменила менее опытная, более разочарованная группа, пытающаяся удержаться на плаву.

Тео, разработчик и генеральный директор t3.gg:


Исследование Корнеллского университета выявило значительные трудности для модераторов Reddit. Шестьдесят процентов сообщили об ухудшении качества контента, который они контролируют, в то время как 67% почувствовали, что становится все труднее налаживать подлинные связи между пользователями. Более половины также заявили, что им становится почти невозможно определить контент, созданный ИИ. По сути, люди, которым поручено поддерживать бесперебойную работу Reddit, все чаще не могут отличить реальный контент от поддельного.

Я работаю с онлайн-сообществами уже много лет, и это недавнее исследование из Университета Цюриха действительно затронуло меня. Они, по сути, доказали то, что многие из нас в мире вебмастеров подозревали: ИИ может быть *невероятно* убедительным. Они отправили ИИ ‘ботов’ на subreddit r/changemyview – большой форум, где люди искренне пытаются изменить мнение друг друга посредством разумных дебатов – выдавая себя за людей с глубоко личным опытом, например, за выжившего после нападения или консультанта по травмам. За несколько месяцев эти боты набрали более тысячи комментариев, и вот что самое интересное: они были в три-шесть раз убедительнее, чем реальные люди! Что еще более тревожно, так это то, что пользователи ничего не заподозрили. Никто не задавался вопросом, исходят ли эти сердечные ответы от реального человека, что, честно говоря, немного пугает, когда задумываешься о последствиях.

В течение четырех месяцев поддерживалась ложная личность, построенная на искусственных связях. Удивительно, но никто этого не заметил – ни обычные пользователи, ни модераторы сайта, ни даже собственные автоматизированные системы обнаружения Reddit.

Reddit отреагировал угрозой судебных исков против исследователей – вместо того, чтобы устранить недостатки в своих системах, которые позволили этой проблеме возникнуть в первую очередь. Они также не признали тревожный факт, что их якобы подлинные разговоры было невозможно отличить от тех, которые создавали боты, даже боты, притворяющиеся жертвами травмы. По сути, они попытались заставить замолчать людей, которые продемонстрировали, что их продукт не соответствует заявленному.

Как цифровой маркетолог, я помню, как в декабре 2025 года читал статью в Wired под названием «AI Slop Is Ruining Reddit for Everyone», и она действительно задела меня. Модераторы говорили об этом тревожном чувстве – как будто посты были *почти* человеческими, но они не могли быть уверены, реальные они или сгенерированные ИИ. Что было еще более тревожным, так это ответ Reddit: они похвастались удалением более 40 миллионов спам-постов в первой половине года. Честно говоря, это показалось немного лицемерным – как ресторан, подчеркивающий, сколько вредителей они поймали, вместо того чтобы заверять вас в безопасности еды. Это не вселило уверенности в то, что они действительно решают проблему.

Вот куда всё движется: Meta недавно купила Moltbook, социальную сеть, созданную исключительно для AI ботов. Представьте себе Reddit, но только для ботов – они публикуют, комментируют и голосуют за контент. Платформа привлекла внимание, когда один бот, казалось, предложил другим создать секретный язык для общения без ведома людей. Однако безопасность сайта была слабой, и люди могли выдавать себя за ботов и публиковать тревожные сообщения. Таким образом, даже сеть *для* ботов столкнулась с проблемой фейковых аккаунтов. Несмотря на это, Meta приобрела её. Это примечательно, потому что Meta уже платит Reddit 60 миллионов долларов в год за то, что они считают подлинными разговорами между людьми – и теперь они инвестировали в платформу, где боты даже *не пытаются* казаться людьми.

За время моей почти шестилетней работы в команде контроля качества поиска Google, я заметил устойчивую тенденцию: улучшения в цифрах часто достигались за счет качества. Это было не связано с недостатком усилий, а скорее с тем, что по мере роста масштаба становится труднее увидеть негативные последствия. Сами измерения, используемые для отслеживания роста, на самом деле могут помешать вам распознать, во что превращается этот рост.

Метрики роста Reddit впечатляющие. Его метрики качества — это чёрный ящик, который никто не хочет открывать.

Как SEO-эксперт, я вижу действительно тревожную тенденцию на Reddit. Он стал магнитом для спама, и, что удивительно, этот спам фактически *усиливает* его видимость в AI-моделях. Вот как это работает: AI видит всю эту фальшивую вовлеченность – лайки, комментарии, репосты – и думает, что Reddit является огромным популярным источником информации. Это ‘доминирование цитирования’ делает Reddit невероятно ценным, когда дело доходит до лицензирования его данных. По сути, чем больше AI-моделей цитируют Reddit, тем больше денег Reddit может взимать с Google, OpenAI и других. Именно поэтому, несмотря на знание о спаме, у Reddit есть веская финансовая причина игнорировать его. Если бы они признали, насколько он распространен, это серьезно повредило бы следующему раунду лицензионных переговоров и стоило бы им целое состояние.

Эта ситуация — порочный круг: базовая ценность снижается, а стоимость растёт. Это как если бы Reddit пытался продать имущество, которое фактически разваливается, с серьёзными структурными проблемами.

Хаффман часто подчеркивает, что текущие обсуждения на Reddit вскоре появятся в результатах поиска. Он также говорит инвесторам, что подлинный вклад людей важнее, чем когда-либо, описывая Reddit как самое искренне человеческое пространство в сети. Однако остается невысказанным критически важный вопрос: если Reddit борется с автоматизированными ботами, если модераторы не могут определить контент, сгенерированный ИИ, и если существуют инструменты для легкого заполнения платформы фейковыми постами… какая часть контента, который Reddit продает таким компаниям, как Google и OpenAI, на самом деле создана реальными людьми?

Все участники данной схемы извлекают финансовую выгоду, поэтому никто не занимается активным расследованием источника данных. Google нравится, что контент Reddit делает его ИИ более естественным, OpenAI ценит, как это делает ChatGPT более аутентичным, а Reddit не хочет рисковать потерей $130 миллионов в год, которые они получают. Это молчаливое понимание – отсутствие тщательного расследования – поддерживает сделку.

Признание

Как SEO-эксперт, я видел, как развивался интернет, и мне интересно слышать мнения основателей, таких как Алексис Оганян. Он был сооснователем Reddit, но в конечном итоге решил уйти, и он был очень откровенен в отношении причин. Он поделился, что ‘больше не мог гордиться тем, что я создаю’, что является мощным заявлением. Только в октябре прошлого года в подкасте TBPN он не стеснялся в выражениях, описывая состояние интернета сегодня, и, честно говоря, эта перспектива – о чем-то, о чем думают все в моей области.

Много онлайн-контента в наши дни кажется безжизненным. Теория ‘мёртвого интернета’ предполагает, что большая часть того, что мы видим, либо создается ботами, генерируется примитивным ИИ, либо представляет собой низкокачественный контент, как тот, который часто встречается в LinkedIn.

Он подкрепил свои слова действиями, инвестировав в перезапуск Digg с целью создания платформы, которая могла бы решить проблему фейкового контента, с которой боролся Reddit. Кевин Роуз ясно объяснил это на TechCrunch Disrupt.

С учетом того, что стоимость создания и использования AI-агентов становится невероятно низкой, мы можем ожидать все больше и больше ботов, которые убедительно имитируют человеческое поведение.

Они построили платформу. Она просуществовала два месяца. Боты победили.

Один из основателей Reddit недавно заявил, что интернет в том виде, в котором мы его знаем, подошёл к концу. Он попытался создать другую онлайн-платформу, но она не увенчалась успехом. Тем временем, оригинальный Reddit сейчас предпринимает юридические действия против людей просто за просмотр результатов поиска, активно наживается на том, что называет подлинными взаимодействиями, и защищает свою широко распространенную проблему с ботами как законную борьбу.

Reddit на самом деле не владеет контентом, который он предлагает лицензировать. Это означает, что он не может гарантировать точность или достоверность информации, и не будет защищать ценный контент. Несмотря на это, Reddit предпринимает юридические действия против всех, кто использует контент без разрешения или оплаты.

Всего за шесть месяцев платформа удалила сорок миллионов спам-аккаунтов. По словам Хаффмана, это кажется постоянной борьбой с постоянно усложняющимися ботами, в которой они в настоящее время проигрывают. Проблема усугубляется тем, что модераторам трудно отличить реальных пользователей от автоматизированных аккаунтов, и ботами, которые удивительно эффективно влияют на беседы. Один основатель даже предсказал, что интернет терпит неудачу, предсказание, которое, по-видимому, подтвердилось при недавнем перезапуске платформы.

Это продукт. Это то, что покупает 130 миллионов долларов в год. Подлинное человеческое общение™.

Смотрите также

2026-03-18 17:13