The Guardian: Google AI Overviews Gave Misleading Health Advice

Согласно расследованию Guardian, AI Overviews от Google иногда предоставляли информацию о здоровье, которую эксперты считали неточной или вводящей в заблуждение. Google не согласен с отчетом, заявляя, что многие из приведенных примеров были основаны на частичных или неполных изображениях.

Купил акции на все деньги, а они упали? А Илон Маск снова написал твит? Знакомо. У нас тут клуб тех, кто пытается понять этот цирк и не сойти с ума.

Купить на падении (нет)

The Guardian оценил AI Overviews от Google для поисковых запросов, связанных со здоровьем, поделившись результатами с благотворительными организациями в сфере здравоохранения, врачами и организациями по защите прав пациентов. Google заявил, что большинство этих AI-сгенерированных сводок предоставляют точную и полезную информацию.

Что обнаружил The Guardian, согласно отчёту.

The Guardian протестировал AI-чат-бота, задавая ему вопросы о здоровье, а затем попросил медицинские организации проверить ответы AI. Несколько рецензентов обнаружили, что чат-бот давал неточные или вводящие в заблуждение советы.

Pancreatic Cancer UK недавно заявила, что говорить пациентам избегать продуктов с высоким содержанием жиров — неправильно и потенциально вредно. Анна Джуэлл, директор благотворительной организации, объяснила, что этот совет «совершенно неверен» и на самом деле может помешать кому-либо быть достаточно здоровым, чтобы получить необходимое лечение.

В отчёте также отмечается рост вопросов, касающихся психического здоровья. Стивен Бакли из благотворительной организации Mind объяснил, что некоторые резюме, сгенерированные ИИ, о состояниях, таких как психоз и расстройства пищевого поведения, содержат «очень опасные советы». Он добавил, что эта информация часто была неверной, вредной или могла отговорить людей от получения необходимой им помощи.

The Guardian также указал на ошибку в информации о скрининге рака. Афина Ламнисос, глава благотворительной организации Eve Appeal по борьбе с раком, заявила, что указание Пап-теста как теста на рак влагалища является неточным и вводящим в заблуждение.

По словам Софи Рэндолл, возглавляющей Patient Information Forum, новая функция AI Overviews от Google отображает неверную информацию о здоровье в результатах поиска, что может быть опасно для людей, ищущих медицинские советы в Интернете.

Ответ Google

Google оспорил как примеры, так и выводы.

Google заявил изданию The Guardian, что большинство его AI Overviews предоставляют точную и полезную информацию, и они постоянно работают над улучшением их качества. Компания также утверждает, что эти обзоры столь же надежны, как и другие результаты поиска, такие как featured snippets.

Как цифровой маркетолог, я внимательно слежу за внедрением AI Overviews. Google заверил нас, что если эти AI-сводки будут ошибаться – например, неверно представлять то, что на самом деле написано на веб-сайте, или упускать общую картину – они вмешаются и исправят это в соответствии с их существующей политикой. По сути, они говорят, что будут исправлять неточности по мере их возникновения.

Более широкий контекст точности.

Как цифровой маркетолог, я внимательно слежу за этой ситуацией, и она действительно подчеркивает продолжающуюся дискуссию, которая началась, когда Google представил AI Overviews ранее в этом году. Это горячая тема с тех пор!

Когда AI Overviews впервые запустились, люди заметили некоторые странные и бесполезные предложения, такие как рекомендация клея в качестве начинки для пиццы или поедание камней. Google отреагировал, ограничив время появления этих AI-сводных и пообещав улучшить, как работает эта функция.

Я был вовлечён в запуск этого продукта, и вскоре люди начали замечать неточности в резюме, созданных с помощью искусственного интеллекта. Главным вопросом быстро стало то, были ли это просто отдельные случаи, или же существует более глубокая, фундаментальная проблема с самой технологией.

Как SEO-эксперт, я внимательно слежу за ростом AI Overviews в поисковой выдаче Google. Недавние данные от Ahrefs особенно интересны – они показывают, что поисковые запросы, связанные со здоровьем, особенно те, которые считаются темами ‘Your Money or Your Life’ (YMYL), значительно чаще вызывают эти AI-powered summaries. Ahrefs проанализировал огромный набор данных из 146 миллионов результатов поиска и обнаружил, что более 44% медицинских YMYL-запросов показали AI Overview. Это более чем в два раза выше среднего показателя по всем поисковым запросам, что означает, что если вы работаете в сфере здравоохранения, понимание того, как работают эти AI summaries, важнее, чем когда-либо.

Почему это важно

AI Overviews появляются над ранжированными результатами. Когда тема касается здоровья, ошибки имеют больший вес.

На протяжении многих лет издатели полагались на признанные медицинские квалификации для укрепления доверия. Теперь это исследование также рассматривает сводки, выделенные Google, которые часто заметно отображаются в результатах поиска, с тем же уровнем тщательности.

The Guardian также указывает на раздражающую проблему: поиск одной и той же вещи может давать разные результаты каждый раз. Это затрудняет подтверждение информации, которую вы ранее нашли, повторив поиск.

Заглядывая в будущее

Как SEO-эксперт, я внимательно слежу за тем, как Google обрабатывает недавний запуск AI Overviews. Они уже внесли изменения на основе отзывов общественности, и их ответ The Guardian даёт понять: они ожидают, что AI Overviews будут оцениваться так же, как и любой другой результат поиска – то есть применяются те же стандарты. Они не планируют относиться к этой новой функции с совершенно иным набором ожиданий, что важно для нас понимать, когда мы оптимизируемся для неё.

Смотрите также

2026-01-06 22:09