Исследование BBC показало, что чат-боты на основе искусственного интеллекта провалили тест на точность новостей

Как опытный вебмастер, я наткнулся на некоторые интригующие выводы из недавнего исследования BBC. Похоже, что помощники на основе искусственного интеллекта иногда могут ошибаться, когда дело доходит до ответов на запросы, связанные с новостями, часто предоставляя информацию, которая может быть неверной или вводящей в заблуждение.

Репортеры BBC критически проанализировали четыре различных помощника на основе искусственного интеллекта, включая ChatGPT, Copilot от Microsoft, Gemini от Google и Perplexity.

Вот что они обнаружили:

  • В 51% ответов были выявлены существенные проблемы.
  • У 91% были некоторые проблемы.
  • 19% ответов, ссылающихся на контент BBC, содержали фактические ошибки, такие как неверные даты и статистические данные.
  • 13% цитат из статей BBC были изменены или сфабрикованы.
  • Помощникам ИИ часто было трудно отличить факты от мнений и предоставить необходимый контекст.

Журналисты BBC пришли к выводу:

В настоящее время помощники на базе искусственного интеллекта не всегда могут предоставлять точные новости, что может привести к дезинформации пользователей.

Примеры найденных ошибок включают:

  • Компания Google Gemini ошибочно заявила, что Национальная служба здравоохранения Великобритании советует людям не начинать курить электронные сигареты, хотя на самом деле рекомендует делать это, чтобы бросить курить.
  • Perplexity и ChatGPT допустили ошибки в информации о смерти телеведущего доктора Майкла Мосли.
  • Несколько помощников ИИ ошибочно утверждали, что политические лидеры все еще находятся у власти после ухода в отставку или замены.

Почему это важно?

BBC подчеркивает, что повторяющиеся ошибки в результатах работы ИИ могут вызвать сомнения в его способности предотвращать распространение ложной информации. Точно так же правдивые заявления могут привести к путанице, если они не оформлены должным образом в контексте.

https://www.searchenginejournal.com/wp-json/sscats/v2/tk/Middle_Post_Text

Из отчета:

Обеспечение надежности источников новостей, независимо от того, транслируются ли они по телевидению или радио, представлены онлайн или доставляются через помощника с искусственным интеллектом, имеет решающее значение. Это жизненно важно, поскольку мы полагаемся на общее согласие относительно фактов, чтобы функционировать как общество. Дезинформация и искажения могут нанести реальный ущерб.

Это исследование коррелирует со статьей, которую я недавно обсуждал, углубляясь в общественное доверие к разговорным агентам ИИ. Это конкретное исследование обнаружило сбалансированное распределение доверия, однако оно показало явную склонность к репортажам, ориентированным на человека.

Что это значит для маркетологов

Согласно исследованию BBC, оно указывает на существенные опасности и ограничения, о которых следует помнить специалистам по маркетингу при использовании технологий искусственного интеллекта для генерации контента.

  1. Точность имеет значение: контент должен быть точным, чтобы вызывать доверие. Контент, сгенерированный ИИ с ошибками, может навредить репутации бренда.
  2. Человеческий контроль имеет решающее значение: хотя ИИ может упростить создание контента, человеческие проверки имеют решающее значение для выявления ошибок и обеспечения качества.
  3. ИИ может не хватать контекста: исследование показывает, что ИИ часто испытывает трудности с предоставлением контекста и различением фактов от мнений. Маркетологи должны знать об этом ограничении.

В эпоху повсеместного использования ИИ маркетологам крайне важно сохранять прозрачность, раскрывая своей аудитории, когда и как они используют ИИ, чтобы сохранить доверие.

Внедрение ИИ в контент-маркетинг может быть полезным, но крайне важно проявлять осторожность и поддерживать человеческий контроль, чтобы не допустить негативного влияния на имидж вашего бренда.

Смотрите также

2025-02-11 21:39