
Как человек, который разрабатывает веб-сайты уже много лет, я узнал, что Google обращает *очень* пристальное внимание на определенные виды контента. Они называют это ‘Your Money or Your Life’ – или YMYL – и по сути это темы, которые могут серьезно повлиять на жизнь человека, такие как его здоровье, финансы или безопасность. Из-за этого Google предъявляет к этим сайтам гораздо более высокие требования в отношении точности и надежности. Это неудивительно, на самом деле – люди полагаются на эту информацию, чтобы принимать важные решения!
Купил акции на все деньги, а они упали? А Илон Маск снова написал твит? Знакомо. У нас тут клуб тех, кто пытается понять этот цирк и не сойти с ума.
Купить на падении (нет)Инструменты для написания текстов с помощью ИИ могут помочь быстро создать много контента, но написание о темах ‘Ваши деньги или ваша жизнь’ (YMYL) — таких как финансы, здоровье или безопасность — требует особой осторожности и надежного автора. Так, может ли ИИ действительно создавать хороший контент для этих деликатных областей?
В конечном счете, ИИ испытывает трудности с темами «Ваши деньги или ваша жизнь» – областями, где критически важны точные, экспертные советы. Он склонен предоставлять общие, бесполезные ответы вместо этого. Тревожно, но ИИ делает неподтвержденные медицинские заявления в половине случаев и полностью фабрикует юридическую информацию в трех четвертях случаев.
Эта статья исследует, как Google обеспечивает высококачественный контент, подчеркивает ограничения контента, созданного искусственным интеллектом, и объясняет, почему издатели, которые уделяют приоритетное внимание реальной экспертизе, вероятно, будут процветать в будущем.
Google относится к YMYL-контенту с алгоритмической тщательностью.
Руководство Google по оценке качества результатов поиска подчеркивает, что веб-сайты, касающиеся тем, которые могут серьезно повлиять на здоровье, финансы или безопасность человека, должны соответствовать самым высоким стандартам. Эти сайты тщательно проверяются, чтобы убедиться, что они предоставляют надежную информацию.
Google подтвердил, что его система ранжирования отдает приоритет надежности, экспертности и авторитетности, особенно для поисковых запросов ‘Your Money or Your Life’ (YMYL). Это означает, что страницы, освещающие темы, которые могут существенно повлиять на здоровье, финансы или безопасность человека, подвергаются более высоким стандартам и оцениваются более тщательно с точки зрения этих качеств.
Обновление основного алгоритма Google в марте 2024 года показало, что оно отдает приоритет высококачественному контенту. Они предсказали снижение позиций низкокачественных страниц на 40%, а веб-сайты, занимающиеся важными темами ‘Your Money or Your Life’ (YMYL) – такими как финансы и здравоохранение – испытали самые большие изменения.
Руководство по качеству Google использует двухступенчатую систему для оценки контента. Стандартные темы требуют лишь демонстрации разумной экспертности, чтобы считаться «средним качеством». Однако контент, посвященный темам «Ваши деньги или ваша жизнь» (YMYL) – тем, которые влияют на финансы, здоровье или безопасность человека – должен демонстрировать очень высокий уровень экспертности, опыта, авторитетности и надежности. Контент, который не соответствует этим стандартам, получает оценку «Lowest» (самое низкое качество), которая является самой сильной негативной оценкой Google.
Учитывая эти повышенные стандарты, контент, сгенерированный ИИ, сталкивается с проблемой их соблюдения.
Возможно, это индустриальная шутка, что ранние галлюцинации от ChatGPT советовали людям есть камни, но это подчеркивает очень серьезную проблему. Пользователи полагаются на качество результатов, которые они читают в интернете, и не все способны отличить правду от вымысла.
Ошибки ИИ делают его непригодным для тем YMYL.
Исследование Стэнфордского института искусственного интеллекта (HAI) от февраля 2024 года протестировало GPT-4 с использованием генерации с расширенным поиском (Retrieval-Augmented Generation (RAG)).
Наш анализ показал, что 30% индивидуальных утверждений не имели подтверждающих доказательств. Почти половина всех ответов (49%) содержала как минимум одно утверждение, которое не удалось проверить. Модель Google Gemini Pro предоставляла полностью подтвержденные ответы только в 10% случаев.
Это были не мелкие ошибки. GPT-4 RAG предоставил инструкции по неправильному использованию медицинских устройств, что может быть опасно для пациентов в экстренных ситуациях.
В ноябре 2024 года Money.com оценил ChatGPT Search, задав ему 100 финансовых вопросов. Результаты показали, что он правильно ответил в 65% случаев, предоставил неполные или вводящие в заблуждение ответы в 29% случаев и дал совершенно неверные ответы в 6% случаев.
Недавнее исследование Лаборатории регулирования Стенфорда изучило более 200 000 юридических вопросов и обнаружило, что даже самые передовые модели ИИ часто предоставляют неточные или выдуманные ответы, с уровнем ошибок от 69% до 88%.
Модели искусственного интеллекта часто выдумывают информацию при работе с юридическими делами – на самом деле, они галлюцинируют как минимум в 75% случаев, связанных с судебными решениями. База данных случаев галлюцинаций ИИ в настоящее время документирует 439 юридических решений, в которых ИИ сгенерировал неточную информацию в официальных судебных документах.
В феврале 2023 года журнал Men’s Journal опубликовал статью о здоровье, написанную с использованием искусственного интеллекта. Доктор Брэдли Анавальт из Медицинского центра Вашингтонского университета затем обнаружил 18 различных ошибок в статье.
Он указал на продолжающиеся ошибки в представленной информации, включая путаницу в медицинских терминах, ложную связь между диетой и проблемами со здоровьем, а также необоснованные заявления о здоровье.
В статье содержались значительные медицинские неточности, но они были представлены таким образом, что казались правдоподобными. Это опасное сочетание, поскольку читатели вряд ли смогут распознать ошибки, так как информация звучит достоверно.
Но даже когда ИИ правильно выдает факты, он терпит неудачу по-другому.
Google отдает приоритет тому, что ИИ не может предоставить.
В декабре 2022 года Google обновил свою систему оценки качества веб-сайтов, добавив «Experience» в качестве ключевого фактора. Это расширило их существующие рекомендации от E-A-T до E-E-A-T.
Google сейчас ищет контент, который демонстрирует реальный личный опыт и глубокие знания – например, написание о том, чем вы действительно пользовались, или о месте, которое вы посетили.
Этот вопрос подчеркивает, с чем испытывают трудности ИИ. В то время как ИИ может создавать контент, который является фактическим и читается как экспертный источник – например, медицинские или юридические тексты – он не может воспроизвести практическое понимание, которое приходит из реального жизненного опыта. Такие вещи, как ежедневное взаимодействие врача с пациентами или работа юриста в суде, предоставляют понимание, которое ИИ просто не может сгенерировать.
Настоящая разница заключается в качестве информации. В то время как ИИ может определить дисфункцию височно-нижнечелюстного сустава (TMJ), специалист по TMJ демонстрирует истинные знания, отвечая на конкретные проблемы и вопросы пациентов.
Что происходит во время заживления? Какие типичные ошибки совершают пациенты? И когда лучше обратиться к специалисту, а не к своему обычному стоматологу? Эти вопросы представляют собой аспект ‘Experience’ E-E-A-T – то есть доказанную способность понимать, что пациенты на самом деле испытывают и в чём нуждаются.
Google отдает приоритет высококачественному контенту и конкретно ищет оригинальность. Они предлагают спросить себя, предоставляет ли ваш контент новую информацию, исследования или анализ, и выходит ли он за рамки того, что уже широко известно, чтобы предоставить проницательные или интересные перспективы.
Поисковая компания предостерегает от простого повторения того, что уже сказали другие, вместо того чтобы предлагать новые идеи. Именно это сейчас делают многие большие языковые модели.
Этот повторяющийся подход приводит к другой проблеме: когда все полагаются на одни и те же ресурсы, становится трудно отличить контент друг от друга.
Дизайн ИИ гарантирует гомогенизацию контента.
Как цифровой маркетолог, я следил за некоторыми захватывающими исследованиями из UCLA о том, как ИИ может приводить к ‘спирали гомогенизации’. В основном, поскольку большие языковые модели предсказывают наиболее вероятное следующее слово, они естественным образом тяготеют к тому, что популярно у *большинства*. Это означает, что контент, сгенерированный ИИ, рискует стать невероятно пресным и предсказуемым, теряя нюансы и разнообразие, которые делают контент по-настоящему привлекательным. Это реальная проблема для всех, кто пытается выделиться в сети!
Исследователи из Оксфорда и Кембриджа наблюдали это явление в естественной среде. Когда они обучали ИИ определять породы собак, он начал сосредотачиваться исключительно на наиболее распространенных, в конечном итоге приведя к ситуации, когда он мог распознавать только ограниченный диапазон – проблему, которую они назвали ‘Model Collapse’.
Недавнее исследование, опубликованное в журнале Science Advances, обнаружило, что хотя генеративный ИИ помогает отдельным людям быть более креативными, он на самом деле приводит к меньшему разнообразию в новом производимом контенте. Люди могут писать лучше самостоятельно с помощью помощи ИИ, но как группа, они склонны создавать более ограниченный спектр идей.
Когда речь заходит о важных темах, таких как финансы, здоровье или всё, что влияет на жизнь людей (часто называемое ‘YMYL’), эта тенденция использования ИИ для создания контента является проблемой. Если несколько экспертов – например, финансовые консультанты – все используют один и тот же ИИ-инструмент, такой как ChatGPT, для дачи советов, их рекомендации в конечном итоге будут звучать почти идентично. Это затрудняет для Google ранжирование их по-разному и не даёт пользователям причины выбрать одного консультанта вместо другого.
В марте 2024 года Google обновила свою систему ранжирования, чтобы пресекать сайты с контентом, созданным главным образом для манипулирования поисковыми системами, и контентом, который просто перефразирует информацию, легко доступную в других местах, не предлагая каких-либо оригинальных идей или ценности.
Итак, как Google определяет, действительно ли контент исходит от эксперта, чьё имя на нём указано?
Как Google проверяет экспертность автора
Google не оценивает контент веб-сайтов самостоятельно. Он также использует свой граф знаний, чтобы проверить, являются ли люди, пишущие контент, настоящими экспертами в обсуждаемых ими темах.
Легко подтвердить квалификацию признанных экспертов. Врачи с опубликованными исследованиями, юристы с действующими членствами в адвокатских коллегиях и финансовые консультанты, зарегистрированные в FINRA, оставляют чёткие цифровые следы. Google может связать имя эксперта с его квалификацией, публикациями, публичными выступлениями и профессиональными организациями.
Это устанавливает уникальный стиль, который Google учится ассоциировать с вами. Ваш типичный способ письма – включая используемые вами слова, построение предложений и темы, которые вы освещаете – создает узнаваемый шаблон. Если новый контент, появляющийся под вашим именем, не соответствует этому шаблону, это может вызвать сомнения в том, был ли он действительно написан вами.
Чтобы по-настоящему стать авторитетом в своей области, будьте последовательны и регулярно связывайте свою текущую работу с тем, что вы делали в прошлом. Когда вы публикуете что-либо, свяжите свое имя с подробной страницей биографии, демонстрирующей вашу квалификацию. Эта страница должна включать ваши учетные данные, где у вас есть лицензия на практику, в чем вы специализируетесь, и ссылки для подтверждения ваших учетных данных на официальных сайтах, таких как медицинские советы или профессиональные организации.
Крайне важно, чтобы контент, опубликованный под именем эксперта, был действительно написан им, или тщательно проверен, чтобы убедиться, что он действительно отражает его знания и точку зрения. Это выходит за рамки простой проверки фактов – речь идет об обеспечении того, чтобы контент звучал так, как будто он исходит от этого эксперта, и демонстрировал его уникальные идеи.
Причина, по которой эти системы проверки важны, выходит за рамки рейтингов.
Реальные последствия дезинформации YMYL
Дезинформация – дорогостоящая проблема, исследование Университета Балтимора 2019 года оценило глобальные экономические потери в 78 миллиардов долларов в год. В 2024 году половина всех предприятий столкнулись с финансовым мошенничеством с использованием дипфейков, что привело к средним потерям в размере 450 000 долларов за инцидент.
Потенциальное влияние ошибок варьируется в зависимости от контента. Ошибки в обычном контенте могут быть просто раздражающими, но ошибки в контенте ‘Your Money or Your Life’ (YMYL) могут привести к серьезному вреду, такому как финансовые потери или даже физическая опасность, а также могут подорвать доверие людей к важным институтам.
В США преднамеренное распространение ложной информации, причиняющей вред, является федеральным преступлением, наказание за которое варьируется от 5 лет лишения свободы до пожизненного заключения, если в результате этого кто-то погибает. Более суровые наказания применяются, если ложная информация приводит к серьезным телесным повреждениям. В мировом масштабе, между 2011 и 2022 годами, 78 стран приняли законы, направленные на борьбу с дезинформацией.
Проверка имеет большее значение для YMYL, потому что последствия нарастают и усугубляются.
Когда медицинская помощь задерживается из-за ложной информации, состояние может необратимо ухудшиться. Плохие финансовые решения могут привести к долгосрочным экономическим трудностям, а неверные юридические консультации могут привести к потере важных прав. К сожалению, эти последствия часто необратимы и не могут быть отменены.
Понимание этих ставок помогает объяснить, что читатели ищут при поиске тем YMYL.
Что читатели хотят от YMYL-контента.
Люди, ищущие информацию по важным жизненным темам – таким как здоровье, финансы или счастье – не ищут сухих, словарных определений. Они хотят услышать от реальных экспертов, которые действительно понимают, что они переживают.
Их интересуют распространенные вопросы, которые задают пациенты, какие методы лечения обычно успешны и как проходит процесс лечения. Они также хотят знать, на какие предупреждающие знаки должны обратить внимание пациенты. Эти знания основаны на реальном опыте, а не только на учебниках или данных.
Люди легко отличают контент, основанный на реальном опыте, от того, что просто собрано из других источников. Например, когда врач делится распространенной ошибкой пациента, это кажется гораздо более достоверным, чем совет, созданный ИИ.
Доверие основывается на знании того, что информация подлинная. Когда речь идет о важных темах, таких как здоровье, деньги или юридические вопросы, люди должны быть уверены, что советы, которые они получают, исходят от человека с реальным опытом.
Это понимание того, что хотят читатели, должно определять вашу стратегию.
Стратегический выбор
Компании, создающие контент на темы ‘Ваши деньги или ваша жизнь’, сталкиваются с критическим выбором: они могут отдавать приоритет реальной экспертизе и оригинальным идеям, или же столкнуться с более низкими позициями в поисковой выдаче и ущербом для репутации своего бренда.
В 2022 году Google добавил «Experience» в свои руководства E-A-T специально для решения проблемы, заключающейся в том, что ИИ не может опираться на личный опыт. Последующее обновление Helpful Content затем наказывало контент, который просто перефразирует информацию из других источников, не предлагая уникальных идей – прямая атака на то, как работают большие языковые модели.
Учитывая всё более строгие стандарты Google для тем «Ваши деньги или ваша жизнь» и высокие показатели ошибок, наблюдаемые в настоящее время в ИИ (от 18% до 88%), полагаться на ИИ на данный момент не представляется целесообразным.
Людям с глубокими знаниями не нужен ИИ для создания контента; им нужны инструменты, которые помогут им организовать свои мысли, оформить идеи и поделиться своими знаниями в понятной форме. Речь идет об организации и ясности, а не просто об автоматическом написании.
Заглядывая в будущее
Этот вывод основан на опыте профессионалов: хирургов, знакомых с проблемами пациентов, финансовых консультантов, переживших экономические спады, и юристов, которые понимают, что находит отклик у разных судей.
Издатели, сосредоточенные на массовом производстве контента типа ‘Твои деньги или твоя жизнь’ – будь то с использованием ИИ или больших команд писателей – вероятно, столкнутся с трудностями. Те, кто уделяет приоритетное внимание построению доверия и точности в этой области, имеют гораздо лучшую долгосрочную стратегию.
Вы можете использовать ИИ как инструмент в своем процессе. Вы не можете использовать его в качестве замены человеческой экспертизе.
Смотрите также
- Золото прогноз
- Серебро прогноз
- Анализ динамики цен на криптовалюту MNT: прогнозы MNT
- Акции NOMP. Новошип: прогноз акций.
- Анализ динамики цен на криптовалюту AAVE: прогнозы AAVE
- Google Phrase Match: все, что вам нужно знать
- Google тестирует кнопку быстрого просмотра рецептов, которые будут держать вас в Google
- Анализ динамики цен на криптовалюту USDE: прогнозы USDE
- Будет ли Солана взлететь до $450 к 2025 году? По мнению искусственного интеллекта Perplexity, да 🚀
- Как использовать GA4 для анализа международных стратегий SEO
2025-11-03 17:13