Исследователи ИИ предупреждают: галлюцинации сохраняются в ведущих моделях искусственного интеллекта

Согласно исследованию Ассоциации по развитию искусственного интеллекта (ААИИ), зачастую существует разрыв между тем, как люди воспринимают возможности ИИ, и тем, что технология ИИ действительно может достичь в современном мире.

💰 Настало время зарабатывать!
Top Crypto покажет лучшие монеты для реального роста!

Присоединиться в Telegram

Фактическая достоверность остается одной из основных нерешенных задач даже для самых продвинутых моделей.

В отчете «Президентской комиссии по перспективам исследований искусственного интеллекта», опубликованном AAAI, представлены мнения 24 опытных экспертов в области ИИ и отклики от 475 участников опроса.

Вот результаты, которые напрямую влияют на стратегии поиска и цифрового маркетинга.

Ведущие модели искусственного интеллекта не проходят базовые тесты на правдивость фактов

Несмотря на миллиарды инвестиций в исследования, проблема достоверности ИИ остается во многом нерешенной.

Согласно выводам отчета, сложные модели как от OpenAI, так и от Anthropic испытывали трудности с точными ответами на более половины вопросов, поставленных в новых тестах типа SimpleQA — наборе простых фактических запросов.

В отчете выделяются три основных метода, применяемых для улучшения точности информации.

  • Генерация с использованием извлечения информации (RAG): получение релевантных документов при помощи традиционного поиска информации перед генерацией ответов.
  • Автоматизированные проверки логических выводов: проверка результатов на соответствие заранее определенным правилам для отсеивания противоречивых ответов.
  • Цепочка мыслей (CoT): Разбиение вопросов на меньшие единицы и стимулирование искусственного интеллекта к размышлению над предварительными заключениями

Тем не менее, эти методы показали лишь умеренные результаты, что подтверждается примерно 60% исследователей ИИ, выражающих скепсис относительно решения проблем фактической точности в ближайшем будущем.

Как эксперт по SEO, я всегда подчеркиваю важность постоянного контроля со стороны человека для обеспечения точности вашего контента и данных. Хотя инструменты ИИ могут ускорить рутинные задачи, полная автономность все еще несет значительный уровень риска.

Разрыв реальности: Возможности ИИ против общественного восприятия

В отчете подчеркивается тревожное расхождение между восприятием и реальными возможностями ИИ, так как впечатляющие 79% опрошенных экспертов в области искусственного интеллекта выразили несогласие или решительное несогласие с утверждением о том, что ‘текущее понимание возможностей ИИ соответствует его истинному потенциалу.’

В отчете говорится:

Для большинства людей по всему миру нынешняя волна восторга вокруг генеративного ИИ может стать первым знакомством с искусственным интеллектом. К сожалению, им не хватает необходимых ресурсов для проверки правдивости многих заявлений об этом.

В настоящее время, к ноябрю, согласно модели Hype Cycle Гартнера, генеративный ИИ преодолел стадию чрезмерно оптимистических ожиданий (пик завышенных ожиданий) и переходит к фазе, часто сопровождающейся разочарованием или недоумением (провал разочарования).

Доктор Генри Кауц, руководитель сегмента Реальности и Надёжности в отчете, отмечает, что некоторые люди, которые относительно недавно занимаются данной темой, часто делают заявления, не соответствующие действительности. В связи с этим он советует тщательно проверять даже мнения экспертов.

Почему это важно для SEO и цифрового маркетинга

Принятие новых инструментов

Как SEO эксперт, я заметил, что стремление внедрять технологии ИИ иногда может ослепить нас их потенциальными недостатками. Важно помнить: несмотря на выдающиеся преимущества, которые предлагает ИИ, он не безупречен. Вопросы фактической точности остаются актуальными, и как маркетологи мы должны проявлять осторожность при использовании этих инструментов. Нам следует всегда стремиться к ответственному внедрению ИИ в наши стратегии.

Проведение регулярных проверок и приглашение профессиональных оценок может существенно снизить вероятность распространения неверной информации, особенно в секторах, регулируемых нормами YMYL (Жизнь, Деньги и Вы), таких как финансы и здравоохранение.

Влияние на качество контента

Использование искусственного интеллекта при создании контента может привести к ошибкам, что негативно скажется на доверии пользователей и имидже компании. Сайты, публикующие вводящий в заблуждение или обманчивый контент, созданный с помощью ИИ, рискуют быть понижены поисковыми системами.

Применяя подход человеческий плюс ИИ, где редакторы тщательно проверяют факты на выходе ИИ, рекомендуется.

Пробираясь сквозь шумиху

Профессионалы с глубоким пониманием как сильных сторон, так и границ искусственного интеллекта будут оптимально подготовлены к принятию обоснованных и ценных стратегических решений.

Для получения дополнительной информации ознакомьтесь с полным отчетом (ссылка на PDF-файл).

Смотрите также

2025-04-01 00:09