Поиск с помощью ИИ отправляет пользователей на страницы с ошибкой 404 почти в 3 раза чаще, чем Google.

Недавнее исследование, включающее анализ более 16 миллионов веб-адресов, подтверждает предупреждение от Google о потенциальном росте фиктивных ссылок как проблеме в системах, управляемых искусственным интеллектом.

Купил акции на все деньги, а они упали? А Илон Маск снова написал твит? Знакомо. У нас тут клуб тех, кто пытается понять этот цирк и не сойти с ума.

Купить на падении (нет)

Согласно исследованию, проведенному Ahrefs, ИИ-помощники направляют пользователей на неисправные или неработающие веб-страницы примерно в три раза чаще, чем Google Поиск.

Данные поступили спустя шесть месяцев после того, как Джон Мюллер из Google обратил внимание на эту проблему.

ChatGPT лидирует по количеству случаев галлюцинаций URL-адресов.

Среди всех протестированных ИИ-помощников ChatGPT генерирует наибольшую долю неточных URL-адресов. В частности, исследование показало, что одна из ста кликов пользователей приводила к странице ошибки 404, в то время как показатель Google был значительно ниже – всего 0,15%.

При анализе URL-адресов, которые предлагает ChatGPT, а не только тех, по которым кликнули, было обнаружено, что 2,38% из них ведут на страницы с ошибками. В то же время, при сравнении с лучшими результатами поиска Google, значительно меньшая доля, а именно 0,84%, представляет собой неработающие ссылки.

Как опытный вебмастер, могу с уверенностью сказать, что мой сайт, Клод, занял второе место по количеству неработающих ссылок среди перейденных URL-адресов, с показателем примерно 0,58%. Копилот лидировал с более низким процентом в 0,34%, за ним последовал Perplexity с 0,31% и Gemini с еще более низким показателем в 0,21%. Однако Mistral выделялся как имеющий наиболее благоприятный показатель неработающих ссылок в 0,12%. Несмотря на эту впечатляющую статистику, стоит отметить, что Mistral также обеспечивает наименьший трафик на веб-сайты.

Почему это происходит?

Исследование выявило две основные причины, по которым ИИ создает поддельные ссылки.

Первоначально определенные веб-адреса (URL) работали, но теперь недоступны. Если искусственный интеллект использует устаревшие данные вместо проведения поиска в сети в реальном времени, он потенциально может порекомендовать страницы, которые были удалены или перемещены.

Во-вторых, искусственный интеллект иногда придумывает веб-адреса, которые звучат правдоподобно, но на самом деле не существуют.

Как эксперт по SEO, я хотел бы поделиться некоторыми наблюдениями, которые я узнал от Райана Лоу из Ahrefs. Кажется, что сгенерированные искусственным интеллектом URL-адреса на их сайте, такие как ‘/blog/internal-links/’ и ‘/blog/newsletter/’, были созданы из-за предположения, что они похожи на реальные страницы, которые могут существовать в блоге Ahrefs. Однако, при более внимательном рассмотрении, эти URL-адреса не являются фактическими страницами на их сайте. Это подчеркивает важность периодического просмотра и совершенствования контента, сгенерированного искусственным интеллектом, чтобы убедиться, что он соответствует структуре вашего сайта и контент-стратегии.

Ограниченное влияние на общий трафик

Несмотря на то, что проблема может показаться значительной, большинство сайтов, вероятно, не заметят существенного изменения в количестве своих посетителей. Помощники на основе искусственного интеллекта составляют лишь около 0,25% от общего трафика сайта. Напротив, аккаунты Google обеспечивают целых 39,35% всех посетителей веб-сайтов.

Исследование также выявило, что примерно 74% из недавно созданных веб-страниц включают контент, сгенерированный искусственным интеллектом. Если этот контент содержит ложные ссылки, поисковые роботы могут непреднамеренно проиндексировать их, усугубляя проблему на различных платформах.

Прогноз Мюллера оказался верным.

По словам Джона Мюллера из Google, который сделал этот прогноз в марте, мы можем ожидать небольшого увеличения числа кликов по подобным «галлюцинаторным ссылкам» в течение следующих 6-12 месяцев. Это соответствует нашим текущим результатам.

Мюллер предложил сосредоточиться на улучшении страниц 404, а не на попытках привлечь случайный трафик.

Как эксперт по поисковой оптимизации, я бы сказал, что всегда разумно собирать данные перед внедрением значительных изменений, и недавние выводы компании Ahrefs о минимальном влиянии на трафик подтверждают этот подход.

Кроме того, Мюллер предположил, что эта проблема будет постепенно уменьшаться по мере того, как сервисы искусственного интеллекта станут более умело управлять URL-адресами. Посмотрим, подтвердится ли его предсказание со временем.

В предвкушении

В настоящее время многим сайтам целесообразно уделять приоритетное внимание двум ключевым аспектам. Во-первых, важно разрабатывать удобные для пользователей страницы 404 для посетителей, столкнувшихся с неработающими ссылками. Во-вторых, внедрение перенаправлений полезно только для недействительных URL-адресов, которые привлекают значительный трафик. Этот подход направлен на улучшение пользовательского опыта и поддержание эффективности сайта.

Это позволяет вам решать вопрос должным образом, избегая преувеличения или чрезмерной реакции на инцидент, который обычно не заслуживает такой реакции на многих других веб-сайтах.

Смотрите также

2025-09-04 19:15