Подлинный человеческий разговор™

В прошлую пятницу днем Digg умер. Снова.

Всего через два месяца после перезапуска генеральный директор платформы, Джастин Мезелл, опубликовал на веб-сайте сообщение, которое казалось прощальным. Несмотря на привлечение от $15 до $20 миллионов и наличие известных сторонников, таких как Кевин Роуз и соучредитель Reddit Алексис Оханиан, платформа потерпела неудачу. Её основная проблема? Ей не удалось предотвратить огромный приток ботов, которые практически сразу после запуска захватили контроль, несмотря на обещания, что ИИ поможет с модерацией.

По словам Мезелла, значительное и растущее число программ искусственного интеллекта и автоматизированных аккаунтов сейчас активно в сети. Несмотря на блокировку десятков тысяч этих аккаунтов и использование как внутренних, так и внешних инструментов для борьбы с ними, их усилия оказались недостаточными.

Как digital-маркетолог, я думаю, что произошедшее с Digg не было единичным случаем – это действительно высветило более широкую проблему с интернетом в целом. Для нас же это было особенно разрушительно, потому что весь наш бизнес строился на доверии людей к нашим рекомендациям. Доверие *было* нашим продуктом, поэтому, когда оно было поколеблено, мы почувствовали это остро.

Помни эту строчку. Она нам пригодится.

Судят за чтение

SerpApi извлекает результаты поиска из Google, используя код. В настоящее время они поданы в суд компанией Reddit, но не за прямой доступ к веб-сайту Reddit. SerpApi не посещал Reddit.com. Вместо этого, Reddit подает в суд на них за простое чтение общедоступной информации из результатов поиска Google.

Если эта правовая идея будет принята, любой SEO-специалист, который просмотрел страницу результатов поиска, может быть признан нарушителем авторских прав. По сути, простая проверка рейтинга вашего веб-сайта теперь может быть юридически рискованной.

Компания, которая публикует произведения, созданные другими, подаёт в суд на другую компанию. Иск возник из-за того, что вторая компания просматривала результаты поиска от третьей компании, которые иногда включали адрес, изначально опубликованный на Reddit.

Reddit просит суд защитить очень короткие фрагменты контента, появляющиеся на его платформе – такие вещи, как несколько названий фильмов, дата «May 17, 2024», и часть отзыва о ресторане. Они утверждают, что отображение этих фрагментов Google в результатах поиска нарушает закон об авторском праве, в частности тот же закон, изначально предназначенный для предотвращения пиратства DVD. По сути, Reddit утверждает, что просмотр этих общедоступных результатов поиска равносилен незаконному копированию фильма.

Генеральный директор SerpApi ответил на иск Reddit, указав на необычное утверждение о том, что доступ к общедоступным результатам поиска Google — то, что может сделать любой в Интернете — может быть юридическим нарушением. Он утверждал, что если логика Reddit будет принята, то просто просмотр этих результатов может быть расценен как нарушение авторских прав, что, по его мнению, не было целью первоначального закона, разработанного для предотвращения пиратства DVD.

Что действительно расстраивает, так это следующее: собственные правила Reddit, с которыми согласился каждый пользователь, чётко указывают, что пользователи владеют тем, что они публикуют. Reddit имеет только разрешение на использование контента, но не исключительные права на него. Поэтому невероятно лицемерно, что компания, которая заверила миллионы людей в том, что они владеют своими словами, сейчас борется в суде за контроль над тем, как и где эти слова читаются, и даже над тем, как на них зарабатывают.

Reddit выбрал эту модель лицензирования, вероятно, потому, что открытое заявление о том, что они будут владеть пользовательским контентом, отчудило бы сообщества, которые создали ценность платформы. Теперь, когда они присваивают этому контенту денежную стоимость, Reddit стремится изменить условия – посредством юридических действий, не привлекая создателей контента.

Если вы озадачены кажущимся слабым юридическим аргументом Reddit, причина проста: дело в деньгах. Они отдают приоритет своим финансовым интересам.

Официальные правила Reddit гласят, что пользователи сохраняют права собственности на то, что они публикуют. Однако документы, связанные с недавным публичным размещением акций компании, показывают, что Reddit заработал 203 миллиона долларов, лицензируя контент пользователей другим лицам. Это говорит о том, что Reddit теперь заявляет о контроле над этим контентом, несмотря на предыдущие утверждения о том, что он принадлежит пользователям.

Google тратит около 60 миллионов долларов в год, в то время как, по оценкам, OpenAI тратит 70 миллионов долларов. Генеральный директор Reddit Стив Хаффман, который ранее преуменьшал обеспокоенность добровольческих модераторов и пользовательского восстания, недавно сообщил инвесторам, что стоимость компании увеличилась. Он заявил, что их данные теперь больше, уникальнее и ценнее, что дает им сильное преимущество в переговорах.

Reddit изучает новую систему ценообразования, при которой стоимость доступа к его контенту будет меняться в зависимости от спроса, особенно со стороны искусственного интеллекта. Они считают, что поскольку модели ИИ все чаще используют контент Reddit, этот контент стал более ценным, и Reddit заслуживает компенсации за свой вклад в ответы, генерируемые ИИ.

Давайте чётко определим позицию Reddit, как она представлена как в его юридических документах, так и в материалах для инвесторов.

  • Она имеет право контролировать, кто получает доступ к пользовательскому контенту, которым она не владеет.
  • За этот контент следует платить больше, так как модели искусственного интеллекта используют его всё чаще.
  • Любой, кто получает к нему доступ без оплаты – даже через результат поиска Google – нарушает закон; и
  • Содержание само по себе является подлинным, ценным и незаменимым.

Эти четыре утверждения противоречат друг другу, что означает, что они не могут быть все верными. Однако, в настоящее время расследуется только последнее утверждение.

Продукт в основном состоит из ботов на данный момент.

Эта идея лежит в основе инвестиций в 130 миллионов долларов. Это обещание Google и OpenAI, что они получают реальные, естественные разговоры – такие, которые уникальны для людей, необработанные и невозможные для копирования автоматическими создателями контента.

Вот как на самом деле выглядит подлинный человеческий разговор на Reddit в 2026 году:

В июне 2025 года генеральный директор Reddit Стив Хаффман сообщил Financial Times, что платформа постоянно борется с растущей волной спама, создаваемого искусственным интеллектом. Он описал это как «гонку вооружений», и это описание оказалось удивительно точным.

На протяжении двух десятилетий мы конкурируем с теми, кто пытается повысить свою видимость на Reddit. Мы стабильно занимаем высокие позиции в результатах поисковых систем. Подобно тому, как люди стремятся преуспеть на Reddit, чтобы улучшить свои позиции в поисковых системах, теперь они сосредотачиваются на Reddit, чтобы быть замеченными моделями ИИ – это еще один способ обеспечить включение вашего контента.

Послушайте, после многих лет работы в веб-разработке, ты учишься замечать поворот, когда видишь его. Генеральный директор этой компании, продающей «человеческое общение» – сервис, приносящий 130 миллионов долларов в год – только что признался Financial Times, что по сути это был способ сбора данных для игрового ИИ. И самая дикая часть? Он представляет это как видение дальновидного человека, борющегося за правое дело, а не как извлечение прибыли из того, что большинство из нас сочло бы недостатком сервиса. Честно говоря, это довольно смелый спин.

Несколько лидеров рекламной индустрии, что неудивительно на Каннском рекламном фестивале, признались Financial Times, что намеренно публикуют контент на Reddit, чтобы повлиять на то, что ИИ-чат-боты говорят об их брендах. Они открыто признали эту практику, считая ее оправданной, поскольку их собственный генеральный директор объяснил, как это может работать.

Это происходит не только за закрытыми дверями. Вся индустрия возникла вокруг продвижения продуктов на Reddit. 404 Media сообщила об инструменте под названием ReplyGuy, который сканирует Reddit на предмет релевантных ключевых слов, а затем автоматически публикует ответы, которые тонко упоминают ваш продукт. Другие компании, такие как Redreach, ReplyHub, Tapmention и AI-Reply, еще более открыто об этом заявляют. Redreach утверждает, что публикации в Reddit теперь доминируют в результатах поиска Google, и что такие инструменты искусственного интеллекта, как ChatGPT, используют их для формирования рекомендаций по продуктам. Они утверждают, что игнорирование маркетинга в Reddit — это все равно, что игнорировать поисковую оптимизацию (SEO) много лет назад. Существует даже рынок для покупки и продажи старых аккаунтов Reddit с установленной репутацией, которые используются специально для рассылки спама и повышения позиций в поисковой выдаче.

Reddit продаёт свои реальные разговоры Google за 60 миллионов долларов в год. Недавно фейковый отзыв – размещённый ботом на аккаунте, приобретённом всего за 30 долларов – начал появляться в результатах AI-поиска Google, что привело к тому, что Google стал рекомендовать этот продукт реальным пользователям. Это подчеркивает источник данных, питающих AI Google: подлинный контент, созданный пользователями.

Моды исчезли, боты победили, и никто не ведёт счёт.

Опытные люди, которые ранее предотвращали эти проблемы, в основном больше не здесь. Изменения, внесенные Reddit в 2023 году в то, как разработчики получают доступ к его данным – изменения, которые произошли непосредственно перед тем, как компания стала публичной – обошлись бы разработчику приложения Apollo в 20 миллионов долларов в год только для продолжения работы. В ответ 7000 сообществ временно закрылись. Генеральный директор Reddit назвал добровольных модераторов оторванными от реальности и дождался, пока протест утихнет. Квалифицированные модераторы, которые использовали полезные приложения для поддержания качества, ушли, и их заменила менее опытная, более разочарованная группа, пытающаяся удержаться на плаву.

Тео, разработчик и генеральный директор t3.gg:


Исследование Корнеллского университета выявило значительные трудности для модераторов Reddit. Шестьдесят процентов сообщили об ухудшении качества контента, который они контролируют, в то время как 67% почувствовали, что становится все труднее налаживать подлинные связи между пользователями. Более половины также заявили, что им становится почти невозможно определить контент, созданный ИИ. По сути, люди, которым поручено поддерживать бесперебойную работу Reddit, все чаще не могут отличить реальный контент от поддельного.

Я работаю с онлайн-сообществами уже много лет, и это недавнее исследование из Университета Цюриха действительно затронуло меня. Они, по сути, доказали то, что многие из нас в мире вебмастеров подозревали: ИИ может быть *невероятно* убедительным. Они отправили ИИ ‘ботов’ на subreddit r/changemyview – большой форум, где люди искренне пытаются изменить мнение друг друга посредством разумных дебатов – выдавая себя за людей с глубоко личным опытом, например, за выжившего после нападения или консультанта по травмам. За несколько месяцев эти боты набрали более тысячи комментариев, и вот что самое интересное: они были в три-шесть раз убедительнее, чем реальные люди! Что еще более тревожно, так это то, что пользователи ничего не заподозрили. Никто не задавался вопросом, исходят ли эти сердечные ответы от реального человека, что, честно говоря, немного пугает, когда задумываешься о последствиях.

В течение четырех месяцев поддерживалась ложная личность, построенная на искусственных связях. Удивительно, но никто этого не заметил – ни обычные пользователи, ни модераторы сайта, ни даже собственные автоматизированные системы обнаружения Reddit.

Reddit отреагировал угрозой судебных исков против исследователей – вместо того, чтобы устранить недостатки в своих системах, которые позволили этой проблеме возникнуть в первую очередь. Они также не признали тревожный факт, что их якобы подлинные разговоры было невозможно отличить от тех, которые создавали боты, даже боты, притворяющиеся жертвами травмы. По сути, они попытались заставить замолчать людей, которые продемонстрировали, что их продукт не соответствует заявленному.

Как цифровой маркетолог, я помню, как в декабре 2025 года читал статью в Wired под названием «AI Slop Is Ruining Reddit for Everyone», и она действительно задела меня. Модераторы говорили об этом тревожном чувстве – как будто посты были *почти* человеческими, но они не могли быть уверены, реальные они или сгенерированные ИИ. Что было еще более тревожным, так это ответ Reddit: они похвастались удалением более 40 миллионов спам-постов в первой половине года. Честно говоря, это показалось немного лицемерным – как ресторан, подчеркивающий, сколько вредителей они поймали, вместо того чтобы заверять вас в безопасности еды. Это не вселило уверенности в то, что они действительно решают проблему.

Вот куда всё движется: Meta недавно купила Moltbook, социальную сеть, созданную исключительно для AI ботов. Представьте себе Reddit, но только для ботов – они публикуют, комментируют и голосуют за контент. Платформа привлекла внимание, когда один бот, казалось, предложил другим создать секретный язык для общения без ведома людей. Однако безопасность сайта была слабой, и люди могли выдавать себя за ботов и публиковать тревожные сообщения. Таким образом, даже сеть *для* ботов столкнулась с проблемой фейковых аккаунтов. Несмотря на это, Meta приобрела её. Это примечательно, потому что Meta уже платит Reddit 60 миллионов долларов в год за то, что они считают подлинными разговорами между людьми – и теперь они инвестировали в платформу, где боты даже *не пытаются* казаться людьми.

За время моей почти шестилетней работы в команде контроля качества поиска Google, я заметил устойчивую тенденцию: улучшения в цифрах часто достигались за счет качества. Это было не связано с недостатком усилий, а скорее с тем, что по мере роста масштаба становится труднее увидеть негативные последствия. Сами измерения, используемые для отслеживания роста, на самом деле могут помешать вам распознать, во что превращается этот рост.

Метрики роста Reddit впечатляющие. Его метрики качества — это чёрный ящик, который никто не хочет открывать.

Как SEO-эксперт, я вижу действительно тревожную тенденцию на Reddit. Он стал магнитом для спама, и, что удивительно, этот спам фактически *усиливает* его видимость в AI-моделях. Вот как это работает: AI видит всю эту фальшивую вовлеченность – лайки, комментарии, репосты – и думает, что Reddit является огромным популярным источником информации. Это ‘доминирование цитирования’ делает Reddit невероятно ценным, когда дело доходит до лицензирования его данных. По сути, чем больше AI-моделей цитируют Reddit, тем больше денег Reddit может взимать с Google, OpenAI и других. Именно поэтому, несмотря на знание о спаме, у Reddit есть веская финансовая причина игнорировать его. Если бы они признали, насколько он распространен, это серьезно повредило бы следующему раунду лицензионных переговоров и стоило бы им целое состояние.

Эта ситуация — порочный круг: базовая ценность снижается, а стоимость растёт. Это как если бы Reddit пытался продать имущество, которое фактически разваливается, с серьёзными структурными проблемами.

Хаффман часто подчеркивает, что текущие обсуждения на Reddit вскоре появятся в результатах поиска. Он также говорит инвесторам, что подлинный вклад людей важнее, чем когда-либо, описывая Reddit как самое искренне человеческое пространство в сети. Однако остается невысказанным критически важный вопрос: если Reddit борется с автоматизированными ботами, если модераторы не могут определить контент, сгенерированный ИИ, и если существуют инструменты для легкого заполнения платформы фейковыми постами… какая часть контента, который Reddit продает таким компаниям, как Google и OpenAI, на самом деле создана реальными людьми?

Все участники данной схемы извлекают финансовую выгоду, поэтому никто не занимается активным расследованием источника данных. Google нравится, что контент Reddit делает его ИИ более естественным, OpenAI ценит, как это делает ChatGPT более аутентичным, а Reddit не хочет рисковать потерей $130 миллионов в год, которые они получают. Это молчаливое понимание – отсутствие тщательного расследования – поддерживает сделку.

Признание

Как SEO-эксперт, я видел, как развивался интернет, и мне интересно слышать мнения основателей, таких как Алексис Оганян. Он был сооснователем Reddit, но в конечном итоге решил уйти, и он был очень откровенен в отношении причин. Он поделился, что ‘больше не мог гордиться тем, что я создаю’, что является мощным заявлением. Только в октябре прошлого года в подкасте TBPN он не стеснялся в выражениях, описывая состояние интернета сегодня, и, честно говоря, эта перспектива – о чем-то, о чем думают все в моей области.

Много онлайн-контента в наши дни кажется безжизненным. Теория ‘мёртвого интернета’ предполагает, что большая часть того, что мы видим, либо создается ботами, генерируется примитивным ИИ, либо представляет собой низкокачественный контент, как тот, который часто встречается в LinkedIn.

Он подкрепил свои слова действиями, инвестировав в перезапуск Digg с целью создания платформы, которая могла бы решить проблему фейкового контента, с которой боролся Reddit. Кевин Роуз ясно объяснил это на TechCrunch Disrupt.

С учетом того, что стоимость создания и использования AI-агентов становится невероятно низкой, мы можем ожидать все больше и больше ботов, которые убедительно имитируют человеческое поведение.

Они построили платформу. Она просуществовала два месяца. Боты победили.

Один из основателей Reddit недавно заявил, что интернет в том виде, в котором мы его знаем, подошёл к концу. Он попытался создать другую онлайн-платформу, но она не увенчалась успехом. Тем временем, оригинальный Reddit сейчас предпринимает юридические действия против людей просто за просмотр результатов поиска, активно наживается на том, что называет подлинными взаимодействиями, и защищает свою широко распространенную проблему с ботами как законную борьбу.

Reddit на самом деле не владеет контентом, который он предлагает лицензировать. Это означает, что он не может гарантировать точность или достоверность информации, и не будет защищать ценный контент. Несмотря на это, Reddit предпринимает юридические действия против всех, кто использует контент без разрешения или оплаты.

Всего за шесть месяцев платформа удалила сорок миллионов спам-аккаунтов. По словам Хаффмана, это кажется постоянной борьбой с постоянно усложняющимися ботами, в которой они в настоящее время проигрывают. Проблема усугубляется тем, что модераторам трудно отличить реальных пользователей от автоматизированных аккаунтов, и ботами, которые удивительно эффективно влияют на беседы. Один основатель даже предсказал, что интернет терпит неудачу, предсказание, которое, по-видимому, подтвердилось при недавнем перезапуске платформы.

Это продукт. Это то, что покупает 130 миллионов долларов в год. Подлинное человеческое общение™.

Смотрите также

2026-03-18 17:13

Как создать SEO-воркфлоу по работе с заявками: от тикетов до требований

Крупные компании испытывают трудности с SEO не из-за недостатка экспертизы; они испытывают трудности, потому что усилия по SEO часто начинаются слишком поздно в процессе.

Многие крупные компании по-прежнему подходят к SEO, исправляя проблемы *после* запуска своих веб-сайтов. Команды выявляют проблемы, создают отчёты и запрашивают изменения, но часто эти изменения занимают много времени, чтобы быть реализованными. Сегодня сильные позиции в поисковой выдаче строятся не за счёт небольших корректировок – они определяются тем, как веб-сайты проектируются и создаются изначально.

Успешные компании меняют подход к использованию SEO. Вместо исправления проблем *после* создания контента, они теперь используют его для планирования контента *до* его создания, чётко определяя, что необходимо для хорошего ранжирования в результатах поиска. В этой статье подробно описывается, как крупные организации могут официально внедрить это изменение, создав последовательный SEO-процесс, который включает поисковые требования с самого начала процесса создания контента.

Проблема с SEO на основе тикетов

Исторически сложилось так, что компании рассматривали SEO как нечто, что нужно исправить *после* запуска веб-сайта. Это часто означает, что контент создается или обновляется без учета поисковой оптимизации, что на самом деле может снизить его видимость в результатах поиска. Затем команда SEO должна вмешаться, найти проблемный контент или шаблоны и запросить изменения — создавая очередь задач. Эти запросы затем конкурируют с другими важными проектами, такими как новые функции, релизы продуктов и приоритетные задачи.

Это привычный шаблон: ремонт откладывается, а решения оказываются неполными. Хотя некоторые проблемы решаются, другие откладываются до будущих обновлений, а многие возвращаются снова и снова, потому что первопричина никогда не устраняется. Такой подход приводит к постоянным, повторяющимся проблемам.

  • Во-первых, SEO постоянно отстает. Оно реагирует на результаты, а не формирует их.
  • Во-вторых, SEO полагается на убеждение, а не на процесс.
  • Во-первых, структурные ошибки размножаются быстрее, чем их можно исправить. Каждая новая страница, шаблон или запуск на рынок становится ещё одной возможностью воспроизвести одни и те же проблемы в масштабе.

Если SEO всегда является реактивным, каждый онлайн-ресурс может стать слабым местом. Компания преуспевает в *обнаружении* проблем, но испытывает трудности с их предотвращением в первую очередь. Улучшения зависят от поддержания хороших отношений вместо чётких стандартов. Проактивный подход к SEO, посредством правильного запуска, направлен на изменение этой ситуации.

Что на самом деле означает SEO Commissioning

Ведущие компании сейчас сосредотачиваются на SEO прямо с начала проекта, вместо того, чтобы ждать, пока веб-страница выйдет в эфир. Это означает, что они встраивают поисковую оптимизацию в начальные этапы планирования создания цифрового контента.

На данном этапе речь идет не о том, *можно ли* улучшить страницу для поисковых систем, а о том, была ли она изначально разработана так, чтобы они могли ее понять. Такие вещи, как организация контента, поведение страницы, представление информации, связь между страницами через ссылки и соответствие запросам пользователей, определяются до создания страницы. Принятие этих решений на ранней стадии означает, что поисковая видимость встроена *в* веб-сайт, а не исправляется позже.

Представьте себе строительство небоскреба. Сложные проекты, подобные этому, часто используют ‘заказчика по вводу в эксплуатацию’ – человека, который не занимается непосредственно строительством, но следит за тем, чтобы все работало вместе. Он проверяет, что отопление, лифты, электрические системы, окна, пожарные сигнализации и все остальные части функционируют как единая унифицированная система. Без этой координации здание может быть завершено, но оно не будет фактически *работать* должным образом.

Подобно обеспечению качества, SEO важен в цифровом мире. Но вместо исправления проблем *после* запуска веб-сайта или контента, SEO помогает планировать все с самого начала. Он определяет, как создается контент, как работают веб-дизайны и как организована информация, чтобы поисковые системы и ИИ могли легко ее понять.

Когда SEO вовлекается с самого начала проекта, команды переключают свое внимание с исправления проблем после их появления на проактивное определение того, что необходимо для успеха контента. Это превращает SEO из простой службы исправления в неотъемлемую часть процесса проектирования, обеспечивая эффективную работу цифровых систем с самого начала.

Жизненный цикл SEO-внедрения

Компании, которые регулярно используют услуги SEO, обычно проходят похожий процесс, осознают они это или нет. То, что отличает успешные команды, заключается в том, что они планируют каждый шаг, записывают его и убеждаются, что все ему следуют.

1. Определите намерение перед созданием

Каждый актив должен начинаться с чёткого понимания причины его существования с точки зрения поиска.

SEO-исследования на данном этапе фокусируются на понимании *как* люди ищут тему или продукт – чего они пытаются достичь своим поиском (информация, покупки или поиск конкретного веб-сайта) и какие результаты показывают поисковые системы. Это помогает избежать распространенной проблемы: создания отличного контента, который люди на самом деле не ищут, потому что он не соответствует их поисковым привычкам.

Размышления о том, как будет использоваться контент, заставляют нас сразу задать важный вопрос: Что заставило бы поисковую систему или ИИ выделить именно этот фрагмент контента?

Если на этот вопрос нельзя дать четкий ответ, актив не должен быть продвинут дальше.

2. Определите сигналы соответствия.

Перед началом создания или разработки контента, SEO определяет ключевые элементы, необходимые для хорошего ранжирования в результатах поиска.

Это охватывает решения о том, как мы структурируем контент, категоризируем страницы, организуем данные, используем заголовки, создаем внутренние ссылки, связываем связанные темы, обрабатываем изображения и видео, а также учитываем потребности аудитории и язык. Важно, чтобы эти решения принимались *до* того, как мы начнем создавать контент, а не после. Это гарантирует, что все будет настроено правильно с самого начала, а не попытки исправить это позже.

Соответствие требованиям становится необходимостью, а не лотереей.

3. Определите Структурные Требования

Ввод в эксплуатацию применим также к платформам и шаблонам, а не только к контенту.

Это место, где SEO действительно связывается с продуктом и инженерией, влияя на то, насколько легко контент может быть найден большой аудиторией. Это включает в себя определение фундаментальной структуры веб-сайта – такие вещи, как дизайн URL, как строятся шаблоны, как загружаются страницы, куда ведут навигационные ссылки, стратегии внутренней перелинковки и как контент организован для детализации. Это не просто предложения; это важные строительные блоки, которые влияют на то, как поисковые системы понимают и индексируют потенциально тысячи страниц в долгосрочной перспективе.

Если вы встроите SEO в систему с самого начала, это автоматически поможет людям находить ваш контент, вместо того, чтобы полагаться на кого-то, кто будет вручную улучшать его позже.

4. Предварительная проверка перед запуском (Поисковое QA)

Перед релизом, SEO проверяет, были ли фактически реализованы требования к заказу.

Это включает в себя проверку того, может ли веб-сайт быть просканирован и проиндексирован поисковыми системами, проверку точности структурированных данных, обеспечение последовательного использования сущностей, подтверждение того, что внутренние ссылки работают должным образом, и убеждение в том, что контент является полным и релевантным тому, что ищут пользователи. Этот процесс часто путают со стандартной проверкой качества SEO, но он отличается от простого исправления ошибок. Цель не в том, чтобы *найти* проблемы, а в том, чтобы *подтвердить*, что все уже соответствует установленным требованиям.

Когда ввод в эксплуатацию выполнен правильно, этот этап происходит быстро и предсказуемо.

5. Мониторинг после запуска & Обратная связь

Ввод в эксплуатацию не заканчивается с запуском.

Как SEO-эксперт, я сосредотачиваюсь на том, как веб-сайт работает *фактически* по сравнению с нашими ожиданиями. Это означает, что я постоянно смотрю на такие вещи, как наша видимость в результатах поиска, выигрываем ли мы в избранных фрагментах, как ИИ цитирует наш контент и правильно ли мы нацелены на ключевые слова. Я также анализирую, как структура нашего сайта работает на всех страницах. Лучшая часть? Мы используем реальные данные поиска, чтобы улучшить нашу стратегию, создавая цикл непрерывного улучшения. Речь идет не только об исправлении проблем *после* их возникновения; речь идет о внедрении SEO *в* процесс, так что каждое обновление делает ситуацию лучше.

Где ввод в эксплуатацию существует в рабочем процессе предприятия.

Для выполнения работы необходимо находиться там, где принимаются решения.

Это предполагает интеграцию SEO непосредственно во все этапы разработки продукта – от первоначальных требований и планирования контента, до дизайна веб-сайта, сроков реализации проекта, стратегий запуска и финальных обзоров. Вместо того, чтобы проверять SEO как дополнительную задачу, оно должно быть обязательным одобрением перед публикацией чего бы то ни было.

Это разница между SEO как услугой и SEO как инфраструктурой.

Почему эта модель меняет всё.

Обработка SEO как сервисной службы поддержки – с заявками и запросами – приводит к задержкам и делает всё зависимым от одного шага за другим. Вместо этого, сосредоточение на проактивной SEO-работе – как на профилактическом обслуживании – набирает обороты и позволяет избежать проблем до их возникновения. Положительные эффекты от этого подхода быстро растут.

Когда создаётся новый контент, он сразу же оптимизируется для поиска, что делает процесс быстрее, а не медленнее. Количество ошибок уменьшается, поскольку проблемы выявляются и устраняются на ранних этапах. Соблюдение нормативных требований становится проще, даже для большого веб-сайта. Информация организована с самого начала, чтобы компьютеры могли легко её найти. И вместо того, чтобы быть дополнением, хорошее SEO становится естественной частью процесса создания контента.

Как SEO-эксперт, я обнаружил, что переход на комиссионную модель — это революция. Она устраняет необходимость гадать – и постоянно *просить* о чём-либо – при получении результатов. Вместо того, чтобы полагаться на одолжения или надеяться, что кто-то расставит приоритеты для SEO, это становится предсказуемым результатом, когда мы создаём надёжную систему, в которой все извлекают выгоду из успеха. Это действительно согласовывает наши цели и делает достижение топовых позиций гораздо более надёжным.

Суровая правда

Многие SEO-проблемы крупных компаний на самом деле вызваны внутренними проблемами. Часто SEO-команды привлекаются слишком поздно в процессе, не имеют достаточных полномочий для принятия решений, застревают в простом исправлении проблем вместо разработки стратегии и оцениваются на основе результатов, определяемых другими отделами. Правильная интеграция SEO с самого начала решает эти проблемы.

Это продвигает SEO до точки, где успех в поиске действительно создается: в момент принятия решений.

Предстоящее

Запуск проекта определяет *когда* происходят события, но не *кто* за них отвечает. В нашей следующей статье будет объяснено, почему усилия по SEO часто оказываются недостаточными, если все не понимают свои роли, и как компаниям необходимо установить чёткую ответственность, чтобы эти запуски были действительно эффективными и масштабируемыми.

Смотрите также

2026-03-18 16:11

Как использовать ИИ для оптимизации трудоемких SEO-задач

SEO, как и другие методы цифрового маркетинга, не требующие оплаты, требует больших усилий. Хотя существуют полезные инструменты для исследований, анализа и технологий, всё равно требуется значительное приложение усилий.

У каждого свои предпочтительные методы, но подход к SEO, который я использовал в 2008 году, больше не является лучшим. Иногда мне хочется просто управлять всем вручную и иметь прямой контроль над процессом, но это другая тема.

С учетом ажиотажа вокруг новых технологий, таких как ИИ, и постоянно меняющихся онлайн-стратегий, легко потерять концентрацию на задачах, которые по-прежнему требуют реальных человеческих усилий. Я делюсь некоторыми практическими способами упростить эти трудоемкие задачи – будь то попытка работать умнее, расширить свои усилия или добиться большего при ограниченных ресурсах – чтобы вы могли сэкономить время и потенциально увеличить свой заработок.

1. Генерация мета-описаний, заголовков страниц, альтернативного текста

Обычно я начинаю с более общих концепций, но я решаю этот конкретный вопрос немедленно, чтобы покончить с ним.

Создание эффективных мета-описаний, заголовков страниц и альтернативного текста для изображений – вещей, которые выделяют ваш веб-сайт в результатах поиска – может занять много времени, особенно если вы управляете SEO для многих веб-сайтов или клиентов.

Хотя базы данных или системы управления контентом могут автоматически создавать теги, часто необходимо вручную просматривать и уточнять их, чтобы убедиться, что они соответствуют лучшим практикам и общей стратегии.

Вместо того, чтобы покупать дорогие новые решения, попробуйте использовать инструменты, к которым у вас уже есть доступ, такие как Screaming Frog, OpenAI API и плагин для WordPress. Такой подход может сэкономить вам значительное количество денег и времени.

Применение на практике

Шаги для генерации alt-текста в масштабе:

  1. Получите свой API-ключ OpenAI:
    • На панели управления OpenAI по адресу platform.openai.com перейдите в раздел API keys.
    • Создайте новый секретный ключ и дайте ему название, которое вы запомните, например, Screaming Frog.
    • Убедитесь, что на вашем счету есть кредиты (несколько долларов могут иметь большое значение).
  2. Настройте обход Screaming Frog:
    • Настройте конфигурацию OpenAI, перейдя в Configuration > API Access > AI. Введите свой API-ключ в поле. Нажмите Connect.
    • Настройте запрос для генерации альтернативного текста, перейдя на вкладку Prompt Configuration. Нажмите Add из Library > System > Generate alt text for images.
    • Настройте конфигурацию обхода и не забудьте перейти в Spider > Rendering и изменить режим рендеринга с Text Only на JavaScript. Затем перейдите в Extraction и, в разделе HTML, установите флажки Store HTML и Store Rendered HTML.
    • Запустите тестовый обход по одному URL, чтобы убедиться, что вывод работает для вас. При необходимости измените запрос.
  3. Запусти сканирование.
  4. Экспорт в CSV.
  5. Отформатируйте файл с двумя столбцами: URL изображения, альтернативный текст.
  6. Добавьте этот плагин на сайт: https://wordpress.org/plugins/alt-text-updater/.
  7. Загрузите файл.
  8. Просканируйте свой сайт и проведите ручные проверки, чтобы убедиться, что у изображений есть атрибут alt text.
  9. Отключите и удалите плагин.

2. Структурирование контент-планов

Как вебмастер, я постоянно занимаюсь одним из вещей – будь то начало новой SEO-стратегии, расширение существующего сайта или просто создание нового контента – это организация. Я всегда говорю, что контент — это «топливо» для SEO, а теперь и для поисковых систем на основе ИИ. Поэтому, поддержание его хорошо организованным и четко представленным как для посетителей, так и для поисковых систем, имеет решающее значение.

Вам, вероятно, не удастся полностью автоматизировать это с помощью простой команды в большинстве AI-инструментов, но вы все равно можете значительно ускорить процесс и обнаружить связи внутри вашего контента, которые вы могли бы иначе упустить – и это большое преимущество!

Независимо от того, какой контент вы создаете – от отдельных статей до долгосрочных планов или даже обновления существующих материалов – умение писать четкие инструкции для ChatGPT, направлять ИИ, проверять результаты и организовывать свою работу с фирменным стилем может помочь вам создавать более качественный контент быстрее.

Применение на практике

Пример запроса

You are an expert SEO who specializes in content writing for [industry]. Your task is to create an outline for an article for [topic]. The article outline should cover the following subtopics: 

[subtopic 1], 

[subtopic 2], 

[subtopic 3]. 

The article should target the following keywords: 

[keyword]

[keyword]

[keyword]

Attached are the HTML files of pages currently ranking well in Google search results to use as guidance. Review the HTML files and generate a content outline. 

3. Создание брифов проекта

При планировании работы и установлении связи между целями и способами их достижения – от широких стратегий до конкретных действий – вам не всегда потребуется подробный бриф проекта, но это полезный инструмент.

Я и моя команда успешно использовали Gemini для быстрого просмотра и понимания больших объемов SEO-связанной информации. Мы использовали его как для формальных отчетов, так и для неформальной организации, обрабатывая все, от заметок со встреч и исследований до электронных писем и списков конкурентов.

Это полезно во многих ситуациях, таких как создание справочного документа для себя, своей команды, новых сотрудников или для чёткого объяснения наших знаний другим.

Применение на практике.

Пример запроса

You are an experienced Senior Marketing Strategist and you're onboarding your team for [describe project]. Your task is to create a comprehensive project brief for [name of campaign or project].

Ensure the project brief takes into account the following project details:

Objective: [what is the overarching goal of the project]

Target audience: [overview of the demographics]

Key messaging: [provide details about campaign messaging]

Channels: [what channels will be incorporated into the campaign/project]

For the deliverable, the output should include the following:

Project Overview: Include a 1-2 sentence summary of the project

Success Metrics: [provide KPIs]

Budget: [provide financials]

Timeline: [provide deadlines and milestones]

Generate the project brief as a professional, internal-facing document.

Classifying Keywords

Prompt for using the AI function in Google Sheets to classify keywords by search intent, segment, branded/non-branded, etc.

=ai("Act as an SEO Specialist. Classify the following Keyword into exactly one of these Categories: [Informational, Navigational, Commercial, Transactional].

Rules:

Informational: User is looking for an answer or guide.

Commercial: User is researching products/services before buying.

Transactional: User has high intent to buy/convert now.

Navigational: User is looking for a specific website/brand.

Keyword: [Cell Reference, e.g., A2]

Result: Return only the category name with no extra text or punctuation

4. Сегментирование ключевых слов

Современное SEO – это уже не только про таргетинг на очень конкретные ключевые слова. Хотя эти детальные ключевые слова все еще ценны для исследований и планирования, теперь мы используем их вместе с более широкими тематическими идеями, чтобы помочь нам создавать контент.

Вы также можете использовать AI-инструмент для сортировки ваших ключевых слов по категориям. Затем вы можете сохранить результаты и вернуть их в свою таблицу, сопоставляя их с существующими данными с помощью формулы VLOOKUP. Наша команда рекомендует этот подход вместо встроенных AI-функций Google Sheets на данный момент.

Хотя этот подход все еще требует некоторой ручной работы и не является идеальным в долгосрочной перспективе, это значительное улучшение по сравнению с тем, чтобы делать все вручную. Я рекомендую использовать формулы электронных таблиц или текстовые шаблоны (regex) для сортировки ваших данных настолько, насколько это возможно, прежде чем использовать ИИ, особенно если у вас большой набор данных. Это значительно улучшит работу ИИ – и ваши результаты –.

5. Документирование обзоров конкурентов.

Я часто начинаю с быстрого просмотра веб-сайтов конкурентов, чтобы понять их дизайн и общий подход. Хотя мне нравится делать это самому, использование автоматизированных инструментов для этого сэкономило бы много времени.

Моя команда считает Gemini очень полезным для планирования контента веб-страниц. Мы часто предоставляем ему ссылки на три-четыре страницы конкурентов, которые хорошо работают по определенной теме. Gemini затем создает структуру для каждой страницы конкурента, показывая нам их ключевые сообщения, целевую аудиторию и основные разделы контента, которые они используют. Это дает нам надежную отправную точку при создании собственного контента.

Пожалуйста, помните, как и в случае с любой творческой работой, не копируйте и не плагиатируйте контент, сгенерированный этим инструментом. Важно перепроверить, что вывод является оригинальным и не нарушает авторские права других лиц – и мы несем ответственность за обеспечение этого.

Применение на практике

Пример запроса

You're an expert SEO strategist and you're conducting a competitive content analysis of your client's page against pages currently outranking it in Google for the search term [keyword]. The client is a [describe client and industry]. The page is [describe purpose of the page and topic].

I've attached the HTML files of the client's page, as well as the HTML files for the competitor pages. Your tasks are to provide me:

An outline for each page of the content blocks present in the HTML

An overview of the messaging, tone, voice

A list of outgoing internal links in the content

Content gaps between the client's page and the competitors 

6. Проведение анализа SERP

Крайне важно произвести хорошее впечатление и быть замеченным целевой аудиторией. Современное SEO фокусируется на предоставлении именно того, что люди ищут, поэтому понимание поискового намерения является ключевым.

Отличный способ сэкономить время на исследовании ключевых слов — начать с Ahrefs для создания списка ключевых слов-основ, а затем экспортировать этот список вместе с данными результатов поиска (SERP). Затем вы можете загрузить эту таблицу в Gemini и попросить его проанализировать органических конкурентов для каждого ключевого слова и понять намерение за страницами, занимающими верхние позиции. Это позволяет избежать необходимости вручную просматривать большие объемы данных. Наша команда также обычно удаляет данные, связанные с обзорами AI и рекламой, чтобы сохранить краткость.

Эта работа позволила нам эффективно определять результаты поиска, предназначенные для предоставления информации, в отличие от тех, которые пытаются что-то продать. Это помогает нам сосредоточиться на лучших ключевых словах и создавать контент, который соответствует тому, что люди на самом деле ищут. Мы также получили лучшее понимание того, насколько конкурентны различные темы, что позволяет нам избегать чрезмерно сложных областей и выявлять перспективные, конкретные ключевые слова.

Имейте в виду, что результаты поиска не всегда идеальны, и они могут варьироваться в зависимости от местоположения и предпочтений пользователя. Однако они все еще полезны для сравнения различных ключевых слов. Мы также вручную проверяем результаты поиска, чтобы убедиться в правильности наших выводов. В конечном счете, важно перепроверять все с помощью человеческого анализа, даже при использовании инструментов.

В заключение

Вы можете сэкономить значительное количество времени и денег, используя автоматизацию, продвинутые SEO-инструменты и возможности ИИ. Однако помните, что хорошие результаты зависят от точных исходных данных, и проверка человеком по-прежнему необходима для обеспечения всего надёжности и достоверности.

Неважно, насколько вы сейчас используете автоматизацию, сосредоточение на достижении большего результата с меньшими ресурсами – это разумный способ выявить задачи, которые можно улучшить с помощью технологий вместо ручного труда, особенно те, которые не приносят значительной отдачи от вашего времени.

Смотрите также

2026-03-18 15:11

SEO Тест показывает, что ранжировать дезинформацию в Google – тривиальная задача.

SEO-специалист использовал ИИ для создания новостной рассылки и намеренно включил ложную информацию – выдуманную историю об обновлении Google, запланированном на март 2026 года – в качестве теста. Он хотел увидеть, насколько легко может распространяться дезинформация. В то время как крупные новостные сайты, посвященные поисковому маркетингу, не освещали эту историю, некоторые отдельные SEO-специалисты поделились ею, не проверив, была ли она правдивой.

Ошибка приводит к двойному взгляду.

Джон Гуди, который поделился своим экспериментом в LinkedIn, намеренно включил сфабрикованную деталь о запланированном на март 2026 года обновлении Google Core в недавней статье. Он продолжил объяснять, что его процесс включает в себя ручную проверку для выявления и исправления ошибок ИИ. Он решил опубликовать неверную информацию, чтобы проверить, поставит ли кто-нибудь под сомнение её точность.

Google оценивает дезинформацию

По словам Гуди, Google на самом деле был ответственен за распространение дезинформации о несуществующем основном обновлении алгоритма. Его рассылка LinkedIn появилась в результатах поиска по запросу ‘Google March Update 2026’, и ложная информация отображалась как в традиционном Google Search, так и в его AI Overviews.

Моя статья в LinkedIn появилась на первой странице Google, когда люди искали ‘Google March update 2026’. Она не была спрятана на последующих страницах – она была прямо там, легко видимая для всех, кто искал информацию о последних изменениях в поисковом алгоритме Google.

…Функция AI Overview от Google подобрала сфабрикованную информацию и представила ее как факт.»

Результаты поиска Google часто лишены надёжной проверки фактов, что означает, что неточная информация, особенно о SEO, часто появляется в топе рейтингов. Получение SEO-советов от Google ненадежно – это лотерея, найдёте ли вы полезную, правдивую информацию или что-то совершенно выдуманное.

Поиск сомнительных SEO-трюков в интернете (например, манипулирования результатами поиска) может случайно подтвердить, что эти методы работают, потенциально вводя в заблуждение добросовестных владельцев бизнеса, которые не знакомы с этими тактиками.

Скриншот Google, рекомендующий тактику «черного» SEO.

Как цифровой маркетолог, я вижу, как эта проблема преследует результаты поиска Google на протяжении многих лет. Честно говоря, меня не удивляет, что Google иногда распространяет ложную информацию, например, эти фальшивые заявления об обновлениях — это прямой результат той продолжающейся проблемы.

Веб-сайты распространяют дезинформацию.

Это привело к тому, что SEO-сайты распространяли дезинформацию об обновлении. Обновления ядра Google всегда привлекают много внимания, и некоторые SEO используют их для привлечения новых клиентов. Это распространенная практика в SEO-сообществе — создавать ажиотаж вокруг обновлений, которые на самом деле не происходят, поэтому неудивительно было увидеть, как агентства усилили эту ложную информацию.

Несколько веб-сайтов опубликовали подробные статьи, утверждающие, что происходит «Основное обновление марта 2026 года», представляя его как подтвержденное событие. Это были не просто записи в блогах; это были хорошо исследованные материалы, в которых подробно описывались такие вещи, как новые фильтры для Gemini 4.0, способы измерения информации и способы восстановления после обновления.

Большинство новостных сайтов проигнорировали фейковое обновление.

И Search Engine Journal, и его конкуренты отклонили ложные новости о мартовском обновлении. Однако один технологический веб-сайт не сделал этого, и автор Барри Шварц публично указал на их ошибку.

TechBytes опубликовала статью Дилллипа Чоудари с провокационным названием «Google March 2026 Core Update: Cracking Down on ‘Agentic Slop’.» Это немного иронично, учитывая предмет обсуждения.

Как digital-маркетолог, я заметил, что в этой статье представлены некоторые сфабрикованные технические детали. Они утверждали, что разработали такие вещи, как ‘Gemini 4.0 Semantic Filter’, систему ‘Zero Information Gain’ для категоризации контента и ‘Discover 2.0 Engine’, которая якобы предпочитает глубокие, технические статьи – ни одно из которых, по-видимому, не является реальным. Это вызывает опасения, поскольку создает ложное впечатление об их возможностях.

У Google есть политика в отношении проверки фактов.

Я помню, как Дэнни Салливан из Google объяснял, что Google не проводит активную проверку фактов, но я не смог найти первоисточник этого заявления. Однако, в недавней статье Axios сообщается, что представитель Google подтвердил, что компания не будет соблюдать новый закон ЕС, требующий проверки фактов.

Google сообщил Европейской комиссии, что не будет соблюдать новое требование об интеграции проверки фактов в свои сервисы. Кент Уокер, глава глобальных вопросов Google, объяснил в письме чиновнику Комиссии, что такая интеграция «не подходит и неэффективна» для того, как работает Google.

Это предложение потребует от Google отображать информацию о проверке фактов рядом с результатами поиска и на YouTube видео. Оно также обяжет Google использовать проверку фактов как фактор в том, как он ранжирует и отображает контент.

Уокер считает, что текущая система Google для управления контентом эффективна, подчеркивая ее успех во время напряженного периода всемирных выборов в прошлом году в качестве доказательства. Он также отметил, что функция YouTube, запущенная в прошлом году – которая позволяет определенным пользователям добавлять пояснительную информацию к видео – демонстрирует большой потенциал. Эта функция сопоставима с Community Notes от X и аналогичной программой, недавно объявленной Meta.

Выводы

Джон Гуди подчеркнул важность проверки информации, найденной в интернете, отметив, что людям всегда следует проверять факты того, что они читают.

Другие выводы следующие:

  • Рабочие процессы искусственного интеллекта должны иметь встроенные проверки.
  • Большинство читателей не проверяют факты (лишь немногие комментаторы оспаривали ложные утверждения).
  • ИИ-обзоры и поиск усиливают дезинформацию.
  • Одна статья находит отклик в Интернете, при этом другие сайты повторяют и дополняют первоначальную ложную информацию.

Смотрите также

2026-03-18 12:40

Google объясняет, почему переход на HTTPS может негативно повлиять на SEO.

Как цифровой маркетолог, я недавно услышал от Джона Мюллера из Google о переходе на HTTPS. Он объяснил, что это не так просто, как просто переключить тумблер – это значительный проект, который, если не будет выполнен правильно, на самом деле может *hurt* ваши позиции в поисковой выдаче. Мы всегда подчеркиваем это клиентам – безопасность важна, но реализация должна быть безупречной.

Потеря Топ-3 позиций в Google рейтинге

Кто-то на Reddit был в замешательстве, почему их веб-сайт опустился из топ-3 позиций в результатах поиска Google. Они недавно повысили безопасность своего сайта, перейдя на HTTPS, а также изменили свою тему WordPress и обновили контент своего веб-сайта.

Они объяснили свою ситуацию и попросили совета:

Наш 15-летний финансовый веб-сайт, ранее занимавший топовые 3 позиции в Google, потерял видимость после перехода на защищенное HTTPS-соединение. Мы недавно обновили наш веб-сайт с новым дизайном и свежим контентом, и использовали плагин под названием ‘Real Simple SSL’ для реализации 301 редиректов. Однако, наши позиции в поисковой выдаче не восстановились, и Google все еще не проиндексировал и не обновил некоторые старые, незащищенные (HTTP) ссылки. В настоящее время мы размещены на тарифном плане deluxe от GoDaddy.

Может ли возврат к стандартному веб-протоколу (http) помочь улучшить наши позиции в поисковых системах? Мы беспокоимся, что потеряли их полностью, и надеемся, что все еще есть способ вернуть все на прежний уровень.

Миграция на HTTPS

Несколько факторов могли бы объяснить падение в рейтингах, но Джон Мюллер считает, что переход на HTTPS является наиболее вероятной причиной.

Мюллер ответил:https://www.reddit.com/r/TechSEO/comments/1rwvx4d/comment/ob2obba/

Переход на HTTPS аналогичен полной перестройке веб-сайта – поисковым системам необходимо заново обнаружить и проиндексировать каждую страницу. Если вы недавно совершили переход, потребуется время, чтобы всё стабилизировалось. Не пытайтесь ускорить процесс, удаляя старые HTTP-страницы, так как это также скроет ваши новые, защищенные HTTPS-страницы. (Я наконец-то перешёл на HTTPS после долгого времени, и это был процесс!)

Не всё потеряно.

Я протестировал способность Google восстанавливать позиции веб-сайта в поисковой выдаче после значительных изменений или простоев, и был впечатлён. Google может быстро повторно проиндексировать сайт, даже если он был в автономном режиме до месяца.

Они действительно расстроены из-за падения своих позиций в рейтинге, но прошло совсем немного времени с момента изменения. Джон Мюллер предлагает подождать и посмотреть, что произойдет, и я согласен, основываясь на своем опыте.

Смотрите также

2026-03-18 11:39