
В прошлом сентябре Лили Рей протестировала поисковую систему с искусственным интеллектом Perplexity, запросив последние новости SEO и ИИ. Perplexity уверенно сообщила о якобы обновлении Google под названием «September 2025 ‘Perspective’ Core Algorithm Update», но Рей быстро обнаружила, что этого обновления не существует. Google не использует названия для основных обновлений уже много лет, а «Perspectives» — это на самом деле функция, которая уже присутствует на страницах результатов поиска. Рей, которая в то время путешествовала по Австрии, получила бы уведомление о реальном обновлении по электронной почте до того, как Perplexity упомянула об этом.
Купил акции на все деньги, а они упали? А Илон Маск снова написал твит? Знакомо. У нас тут клуб тех, кто пытается понять этот цирк и не сойти с ума.
Купить на падении (нет)Как цифровой маркетолог, я был довольно шокирован тем, как быстро дезинформация может распространяться в сети. Коллега, Томас Гермен из BBC, написал игривый пост в блоге – это была шутка! – ранжируя технических журналистов по их мастерству поедания хот-догов. Он даже придумал вымышленный чемпионат по поеданию хот-догов в Южной Дакоте. Самое безумное? В течение дня как Google’s AI Overviews, так и ChatGPT представляли эту совершенно выдуманную информацию как факт любому, кто искал. Это просто показывает, что даже сложный ИИ не застрахован от веры в то, что не является правдой – к счастью, другой ИИ, Claude, не попался на это. Это действительно подчеркнуло необходимость тщательной проверки фактов, даже для ИИ-систем.
Все, кто смотрел, видели это.
Я спорил о Уроборосе и раньше. Я ошибся с временной шкалой.
Обычный способ осмысления этой проблемы – ‘model collapse’ (коллапс модели). Всё начинается с обучения ИИ на тексте из интернета. Затем этот интернет наполняется текстом, *созданным* ИИ. Следующая версия ИИ обучается на этом новом интернете, который включает в себя много его собственных предыдущих результатов. В конечном итоге всё становится пресным и однообразным. Поскольку новые идеи возникают из чего-то отличного, а ИИ-системы предназначены для поиска средних значений, эти различия сглаживаются. Я также называл это ‘цифровым уроборосом’ – змеей, поедающей свой собственный хвост.
Эта перспектива опирается на идею повторного обучения и учитывает временные рамки. Она также предполагает, что любые проблемы распространяются так же быстро, как выпускаются новые версии модели.
Проблема не в том, что модели учатся на новой информации. Лили, Жермен и The New York Times все заметили кое-что, но сами AI-модели не были обновлены или переобучены после появления первоначальной ошибки. Проблема распространялась медленно, но происходит немедленно – каждый раз, когда кто-то задает AI вопрос, он по сути создает и повторяет ошибку в режиме реального времени. Это не проблема долгосрочного обучения, а немедленная.
Труба, за которой все следили, не та, которая ломается.
Различие, которое имеет значение.
Проблема потери способностей моделями происходит из-за данных, на которых они обучаются. Когда искусственно созданный контент смешивается с этими обучающими данными, новые модели учатся на нем, что приводит к снижению производительности. Эксперты выражают обеспокоенность по этому поводу уже два года, и их предупреждения обоснованы. Однако проблема развивается достаточно постепенно, что позволяет признать риск, продолжая выпускать новые модели.
Проблема неточной информации, появляющейся в результатах поиска, происходит прямо сейчас и быстро распространяется. Системы, такие как Perplexity, Google AI Overviews и ChatGPT с поиском, полагаются не только на свои существующие знания. Они активно ищут информацию в интернете, включают её в свои ответы и основывают свои ответы на том, что они находят. Это означает, что если поиск обнаруживает ложную или вводящую в заблуждение веб-страницу, эта ошибка будет включена в ответ – и это может произойти мгновенно, без необходимости обновления основных знаний системы.
Исследования чётко показывают, что можно манипулировать ответами систем Retrieval-Augmented Generation (RAG), тонко изменяя информацию, к которой они получают доступ. Исследование Zou et al. (2024), под названием PoisonedRAG, обнаружило, что добавления всего нескольких тщательно разработанных отрывков в базу знаний системы было достаточно, чтобы контролировать её ответы на конкретные вопросы. Аналогично, Xue et al. (2024) в своей работе BadRAG показали, что это также можно сделать, встраивая скрытые триггеры в данные. Оба исследования рассматривают это как сценарий атаки: что происходит, когда кто-то намеренно вводит вводящую в заблуждение информацию в систему.
Жермен и Лили непреднамеренно продемонстрировали, что системы искусственного интеллекта легче всего обмануть повседневным контентом, а не специально разработанными атаками. Вам не нужны сложные, созданные примеры – достаточно простой записи в блоге. Весь интернет выступает в качестве исходного материала, и любой может внести в него свой вклад.
Слой извлечения — это не фильтр. Это вектор заражения.
Кто распространяет Corpus?
Те, кто создают контент, сгенерированный ИИ, также больше всего страдают, когда поисковые системы представляют его как правду. Это была не внешняя атака; сама индустрия разработала и использовала эту технологию и теперь сталкивается с последствиями. Дело не в том, что кто-то намеренно саботирует систему, а скорее в том, что индустрия создает свои собственные проблемы, а затем ищет решения для их исправления.
The Tier That Matters
Исследование Oumi фокусируется на AI Overviews, функции, предлагаемой бесплатно Google. К середине 2025 года AI Overviews, по сообщениям, достигла более двух миллиардов пользователей каждый месяц. Для сравнения, ChatGPT имеет примерно 900 миллионов пользователей еженедельно, при этом около 50 миллионов из них платят за доступ. Это означает, что около 94% пользователей ChatGPT используют бесплатную версию.
Платные версии этих AI-моделей более точны. По данным OpenAI, последняя версия (5.4) на 33% реже делает ложные заявления по сравнению с предыдущей версией (5.2), как отмечается в статье Lily. Хотя бесплатная версия (5.3) является улучшением по сравнению с ее предшественницей – с меньшим количеством случаев неверной информации, как с веб-поиском, так и без него – она все же заметно менее надежна, чем платная опция. Google’s Gemini 3, хотя и улучшает общее качество ответов в первоначальных тестах, фактически увеличила частоту неподтвержденных утверждений. По сути, он предоставляет лучшие ответы, но со слабыми подтверждающими доказательствами.
Кажется, никого не беспокоит тот факт, что лучшая версия этого продукта требует подписки. Большинство людей, и то, что появляется в верхней части результатов поиска Google, получают версию, которую можно легко изменить, приложив совсем немного усилий. По сути, всё сводится к созданию впечатления интеллекта, и два миллиарда пользователей получают отполированный, но потенциально неточный, обзор информации, найденной в сети.
Grokipedia Как Конечное Состояние
Ошибки в доступе к информации ожидаемы. Но с Grokipedia цель состоит в том, чтобы полностью устранить эти ошибки.
Как человек, который годами создаёт веб-сайты и работает с онлайн-информацией, то, что описывает Маск, – действительно тревожная тенденция. По сути, цель состоит в том, чтобы использовать ИИ для сканирования всего Интернета – и теперь это включает весь контент, сгенерированный ИИ *уже* существующий – а затем использовать это для ‘улучшения’ Wikipedia. Это создаёт опасный цикл: ИИ читает информацию в Интернете, переписывает Wikipedia на основе этого, а затем *эта* переписанная версия становится частью того, что читают другие ИИ. Это самоподдерживающийся цикл потенциальной дезинформации, и сейчас он активно разрабатывается как функция. Мы говорим об ИИ, ссылающемся на ИИ и представляющем это как надёжную информацию – это известно как retrieval-contamination, и это большая проблема.
Как цифровой маркетолог, я заметил значительное падение позиций Grokipedia в Google к середине февраля 2026 года. Это на самом деле довольно раздражает – даже когда люди ищут *for* Grokipedia, Wikipedia постоянно появляется выше в результатах.
Как SEO-эксперт, я постоянно вижу появление AI-инструментов, и крайне важно помнить, откуда они *получают* свою информацию. По сути, AI не создаёт знания с нуля – он учится на том, что уже создали люди. Даже что-то вроде Grokipedia, несмотря на то, что является AI, фундаментально зависит от ресурсов, таких как Wikipedia, для функционирования. Это действительно подчеркивает, что контент, созданный людьми, является основой для всей этой AI-генерируемой информации.
Искусственный интеллект полагается на информацию, созданную людьми. Если бы эта созданная людьми информация исчезла, ИИ потерял бы свой смысл и стал бы бесполезным.
Википедия, безусловно, имеет свои недостатки – такие вещи, как войны правок, предвзятые точки зрения, контролирующие контент, и недостаток разнообразных участников – все это известные проблемы. Однако простое удаление человеческих редакторов и полагаться на ИИ не является решением. Я ранее обсуждал, как отсутствие человеческого надзора создает отсутствие ответственности. Проблемы Википедии проистекают из того, что это публичная, часто обсуждаемая и подотчетная платформа. Проблемы с альтернативами, созданными ИИ, такими как Grokipedia, гораздо хуже, потому что вообще нет никакой ответственности.
Уровень цитирования отделяется от авторства.
Слушайте, как человек, который давно строит веб-сайты, я вижу реальный сдвиг. Авторы начинают покидать открытый веб, потому что он просто больше не обеспечивает тот трафик, который был раньше. Проблема в том, что поисковые системы сейчас берут информацию из источников, где мы даже не можем проверить, *кто* это написал, или вообще написал ли это человек! Ссылки всё ещё есть, конечно, но какое *реальное* содержимое вы получаете, когда на них нажимаете? Это просто не тот уровень качества, который был раньше.
Первоначальная идея самореферентного цикла была верной, но понимание *когда* это происходит было неверным. Потеря информации не происходит при следующем обновлении; для этого требуется прямая ссылка и система, которая будет принимать информацию по этой ссылке.
Смотрите также
- Google предупреждает: параметры URL создают проблемы со сканированием
- Акции FESH. ДВМП: прогноз акций.
- Найдите каннибализацию ключевых слов, используя встраивание текста OpenAI с примерами
- Когда в вашем путешествии по цифровому маркетингу вам следует начать делать разметку схемы
- 22 SEO-эксперта предлагают свои прогнозы на 2025 год
- Локальная SEO-схема: полное руководство по локальной структурированной информации и богатым результатам
- Акции EUTR. ЕвроТранс: прогноз акций.
- Bing тестирует связанные поисковые запросы вверху — под панелью поиска
- Документ: Apple поддерживает поисковый индекс миллиардов веб-сайтов
- Отчеты: некоторые преимущества августовского обновления ядра Google исчезли за последние 24 часа
2026-04-22 16:41