
Пользователь Reddit заметил, что Google утверждает, будто их веб-сайт был недоступен с 2026 года, и обвинил в этом ИИ Google. Джон Мюллер из Google быстро указал на то, что проблема была простой ошибкой.
Кто-то поделился ссылкой на свой пост в блоге на Reddit, обвинив Google и ИИ в проблеме. Это позволило Джону Мюллеру из Google посетить сайт, быстро обнаружить, что проблема была связана с тем, как использовался JavaScript, и объяснить, что Google не виноват.
Пользователь Reddit обвиняет ИИ Google.
Недавний пост в блоге на Reddit критикует Google, но его заголовок использует запутанную компьютерную терминологию, которая на самом деле неправильно определяет проблему.
Google может ошибочно полагать, что ваш веб-сайт недоступен. Это может произойти из-за того, как Google использует искусственный интеллект для сбора информации с различных страниц, и это может создать новые юридические риски для владельцев веб-сайтов.
Фразы ‘cross-page AI aggregation’ и ‘liability vectors’ кажутся необычными, поскольку это не стандартные термины, используемые в области компьютерных наук.
Функция ‘cross-page’, вероятно, относится к Query Fan-Out от Google. Это когда вопрос, который вы задаете в режиме AI от Google, фактически разбивается на несколько отдельных поисковых запросов, которые затем запускаются через обычный Google Search.
Термин «liability vectors» звучит технически, и это правда, что «vectors» — это концепция, используемая в SEO и обработке естественного языка. Однако «Liability Vector» не является фактическим термином в этих областях.
Пользователь Reddit написал в блоге, что не уверен, может ли Google определить, когда веб-сайт недоступен.
Я не знаю, чтобы у Google был какой-либо способ автоматически проверять, работают ли веб-сайты или нет. Кроме того, даже если бы у наших внутренних систем возникла проблема, Google не смог бы это узнать, поскольку для этих систем требуется вход в систему.
Кажется, автор не до конца понимает, как работают системы, такие как RAG или Query Fan-Out, или как на самом деле работает ИИ от Google. Они, похоже, удивлены тем, что Google использует актуальную информацию, а не полагается исключительно на знания, которые ИИ получил во время первоначального обучения.
Текст относится к веб-сайту, который что-то утверждает, а не к людям, говорящим это напрямую. Однако, с развитием AI языковых моделей, эта разница в источнике может быть уже не такой важной.
В тексте конкретно указана целевая дата – начало 2026 года. Поскольку веб-сайт был запущен только в середине 2025 года, это подразумевает, что информация от Google довольно свежая – хотя, как всегда, важно помнить, что в работе большие языковые модели!
Ниже в посте пользователь Reddit фактически признался, что так же озадачен, как и все остальные, почему Google сообщает, что сайт находится в автономном режиме. Они действительно не имели ни малейшего представления о том, что вызывает проблему, что, честно говоря, я могу понять – иногда это просто полная загадка!
Команда пошла на риск и удалила всплывающее окно, надеясь, что это исправит проблему. Они не были уверены, что всплывающее окно было фактической причиной, и это подчеркивает, насколько важно выявить первопричину проблемы, прежде чем пытаться ее исправить. Внесение изменений, не зная реальной проблемы, может быть рискованным.
Недавно пользователь Reddit признался, что не уверен, как Google создает эти сводные блоки при поиске веб-сайта. Его беспокоит, что Google может извлечь неточную или несвязанную информацию и отобразить ее как прямой ответ.
«…мы не знаем, как именно Google собирает смесь страниц, которые он использует для генерации ответов LLM.
Это проблематично, потому что все, что находится на ваших веб-страницах, теперь может влиять на несвязанные ответы.
…AI от Google может захватить все это и представить это как ответ.»
Я не виню автора за незнание того, как работает поисковая система с искусственным интеллектом от Google – это не общеизвестная информация. Понятно, почему кто-то может подумать, что это искусственный интеллект, который фактически отвечает на запросы.
Поиск на основе искусственного интеллекта работает путем объединения традиционных методов поиска с искусственным интеллектом. Он находит информацию в сети, а затем использует ИИ для ее обобщения и представления в виде четкого, разговорного ответа – аналогично тому, как человек исследует тему и объясняет ее вам.
Джон Мюллер из Google объясняет, что происходит.
Мюллер ответил на пост Reddit спокойным и уважительным объяснением того, где пользователь допустил ошибку в своей настройке.
Как вебмастер, я часто сталкиваюсь с этой проблемой. Кто-то недавно указал мне на важную вещь относительно моего сайта – я использовал JavaScript для переключения текста с ‘нет в наличии’ на ‘в наличии’ в зависимости от определенного условия. Они справедливо предложили просто загружать правильный текст – будь то ‘в наличии’ или ‘нет в наличии’ – напрямую из JavaScript. Таким образом, если у пользователя отключен JavaScript, он не увидит вводящую в заблуждение информацию о доступности. Это простое изменение, но оно имеет большое значение для доступности и надежности.
Это похоже на совет Google не использовать JavaScript для изменения robots meta тега с ‘noindex’ на что-либо другое – что угодно, на самом деле, поскольку для этого тега на самом деле нет настройки ‘index’. Они говорят, что вы можете быть гибкими в том, что туда помещаете.
Сайт использует JavaScript для замены временного текста-заполнителя на фактическое содержимое при загрузке страницы. Однако, это работает только в том случае, если веб-браузер посетителя настроен на выполнение JavaScript.
Итак, вот что произошло с точки зрения SEO: Google проиндексировал текст-заполнитель, который временно отображался на странице. По сути, вместо того, чтобы видеть окончательный, предназначенный контент, Google прочитал это первоначальное сообщение ‘недоступно’ *как* фактическое содержимое страницы. Именно поэтому так важно убедиться, что Googlebot может сразу получить доступ к реальному контенту – иначе он может проиндексировать что-то совершенно непреднамеренное!
Мюллер рекомендует включать всю необходимую информацию непосредственно в исходный HTML-код веб-страницы. Это гарантирует, что и посетители сайта, и поисковые системы видят одно и то же содержание, что является наиболее надежным методом.
Основные выводы
Эта ситуация подчеркивает несколько важных моментов, помимо просто технической проблемы, с которой столкнулся человек на Reddit. Самый главный вывод заключается в том, что они попытались решить её методом проб и ошибок, вместо того чтобы понять первопричину.
Команда не имела чёткого понимания того, как работают поисковые функции искусственного интеллекта Google, что привело к нескольким неверным предположениям при попытке найти проблему. В результате, их предпринятое решение было по сути лишь догадкой о первопричине.
При решении SEO-задач часто приходится полагаться на обоснованные предположения, поскольку факторы ранжирования Google не всегда прозрачны. Однако иногда эти предположения возникают не из-за недостатка информации от Google, а скорее из-за пробела в нашем собственном SEO-понимании. Это говорит о необходимости дальнейшего исследования и тестирования, чтобы точно определить реальную проблему.
Смотрите также
- Акции IRKT. Яковлев: прогноз акций.
- YouTube запускает платные курсы для большего количества каналов
- Google удаляет хлебные крошки из фрагментов результатов мобильного поиска
- Обзоры Google AI теперь предоставляют помощь в программировании
- Анализ динамики цен на криптовалюту LSETH: прогнозы LSETH
- Какой самый низкий курс фунта к канадскому доллару?
- Анализ динамики цен на криптовалюту KCS: прогнозы KCS
- За пределами фанатского увлечения: Превращение карт вопросов в настоящие системы поиска с помощью искусственного интеллекта
- 10 творческих способов мотивировать вашу маркетинговую команду с помощью @sejournal, @jasonhennessey
- Акции GEMC. United medical group: прогноз акций.
2026-02-14 03:10



