ИИ-помощники демонстрируют значительные проблемы в 45% новостных ответов.

Недавнее исследование, проведенное Европейским вещательным союзом (EBU) и BBC, показало, что лучшие AI-помощники давали неверные факты или некорректно обрабатывали новостную информацию почти в половине своих ответов.

Купил акции на все деньги, а они упали? А Илон Маск снова написал твит? Знакомо. У нас тут клуб тех, кто пытается понять этот цирк и не сойти с ума.

Купить на падении (нет)

Как человек, который годами создавал и отслеживал веб-сайты, я внимательно следил за развитием этих AI-чатботов. Недавно я изучил, насколько хорошо бесплатные версии ChatGPT, Copilot, Gemini и Perplexity справляются с текущими событиями. Я протестировал их, задавая вопросы, связанные с новостями, на 14 разных языках, и работал с общественными вещательными организациями из 18 стран – в общей сложности 22 организации – чтобы убедиться, что вопросы были уместными и точными.

EBU заявила в своем объявлении о результатах:

«Систематическое искажение новостей искусственным интеллектом является последовательным во всех языках и регионах.»

Что показало исследование

Мы проанализировали 2 709 основных ответа, а также изучили примеры из конкретных вопросов, чтобы получить более глубокое понимание.

Почти половина всех ответов (45%) содержала серьезную проблему, в то время как подавляющее большинство (81%) имело ту или иную проблему. Наиболее частой проблемой был поиск источников, что существенно повлияло примерно на треть ответов (31%).

Как каждый помощник выступил

Результаты различались в зависимости от используемой платформы. У Google Gemini было больше всего проблем, при этом 76% его ответов содержали значительные ошибки. Эти ошибки в основном были связаны с проблемами с источниками, что затронуло 72% ответов Gemini.

Другие ассистенты имели показатели от или ниже 37% по основным проблемам в целом и ниже 25% по проблемам с поиском источников.

Примеры Ошибок

Проблемы с точностью включали устаревшую или неверную информацию.

Недавно некоторые AI-помощники допустили ошибки: они утверждали, что Папа Франциск всё ещё жив, даже после сообщений о его смерти в апреле, и Gemini предоставил неточную информацию о правилах, касающихся одноразовых вейпов.

Методологические заметки

С 24 мая по 10 июня участники ответили на стандартный набор из 30 вопросов, а также могли ответить на вопросы, специфичные для их местоположения.

Исследование было сосредоточено на бесплатных/потребительских версиях каждого помощника, чтобы отразить типичное использование.

Многие организации изначально имели меры безопасности, которые предотвращали доступ ИИ-помощникам к их информации. Эти ограничения были временно сняты, чтобы разрешить создание контента, а затем восстановлены после этого.

Почему это важно

Это может повлиять на то, как ваши статьи отображаются в ответах, генерируемых ИИ. Поскольку ИИ иногда допускает ошибки, существует более высокая вероятность того, что он может неправильно процитировать или неточно представить информацию из вашего контента при создании резюме.

Заглядывая в будущее

EBU и BBC опубликовали набор инструментов под названием ‘News Integrity in AI Assistants‘ вместе со своим отчетом, предоставляя полезные советы технологическим компаниям, новостным организациям и тем, кто проводит исследования в этой области.

По данным Reuters, Европейский вещательный союз обеспокоен тем, что всё больше людей получают новости от цифровых помощников, что может подорвать общественное доверие к средствам массовой информации.

Как выразился директор EBU по медиа Жан Филипп Де Тендер:

Когда люди теряют веру в то, что заслуживает доверия, они часто перестают доверять чему-либо, что может оттолкнуть их от участия в демократии.

Смотрите также

2025-10-22 20:09