Модеры Reddit обвиняют исследователей ИИ в имитации жертв сексуального насилия

Ученые, проводящие эксперименты по способности искусственного интеллекта влиять на убеждения людей, нарушили правила сообщества ChangeMyView путем использования обманных методов, не одобренных их этическим комитетом. Эти методы включали в себя притворство жертвами сексуального насилия и использование личных данных пользователей Reddit для манипуляции ими.

Купил акции на все деньги, а они упали? А Илон Маск снова написал твит? Знакомо. У нас тут клуб тех, кто пытается понять этот цирк и не сойти с ума.

Купить на падении (нет)

Предполагается, что некоторые обстоятельства могли повлиять на предвзятость мнений, поэтому они разработали стратегию проверки этого, внедрив боты с искусственным интеллектом в реальные обсуждения без раскрытия их статуса ботов участникам. Эксперимент был проведен среди пользователей Reddit на subreddit ‘Change My View’ (r/ChangeMyView), хотя это шло против правил сабреддита, запрещающих использование неразглашенных AI-ботов в дискуссиях.

После того как исследование было завершено, исследователи признались модераторам на Реддите в своей дезинформации. Модераторы поделились этой информацией и предварительной версией окончательной научной статьи в соответствующем сабреддите.

Этические Вопросы в Исследовательской Работе

Модераторы на форуме CMV начали обсуждение, подчеркнув, что скрытые автоматизированные аккаунты или боты не допускаются в сообществе. Важно отметить, что разрешение для такого эксперимента никогда бы не было предоставлено.

На нашем сабреддите мы не разрешаем использование AI-сгенерированного контента или ботов без раскрытия информации. К сожалению, исследователи не связались с нами перед проведением своего исследования, которое мы бы отклонили в случае контакта. Мы попросили у них извинения и потребовали неопубликования результатов среди прочих претензий. Однако наши опасения до сих пор не получили достаточного рассмотрения со стороны Университета Цюриха или самих исследователей.

В своей работе как специалиста по цифровому маркетингу я сталкивался с ситуациями, когда результаты исследования не полностью раскрывали важные детали — например, когда исследователи пренебрегли признанием нарушения правил Reddit в их научной статье.

Исследователи утверждают, что исследование было этичным

Хотя исследователи не упомянули явно, что их исследование соответствует правилам сабреддита, создается впечатление этичного поведения, поскольку они объясняют, что методология исследования получила одобрение комитета по этике, и гарантируют проверку всех сгенерированных комментариев для предотвращения вредоносного или неэтичного контента.

В нашем первоначальном, запланированном исследовании мы запускаем значительный реальный эксперимент по убедительности моделей изучения языка (LLM). Этот эксперимент проводится в сообществе r/ChangeMyView на Reddit, живой платформе с почти 4 миллионами пользователей и занимающей место среди топ-1% по размеру. В этом сабреддите пользователи выражают свои взгляды на разнообразные темы, приглашая других оспорить их аргументами, контраргументами и соблюдая уважительную беседу. Если оригинальный постер (OP) меняет свое мнение после ответа и решает пересмотреть свою точку зрения, он признает этот сдвиг знаком ∆ (дельта). …Исследование получило этическое одобрение от комитета по этике Университета Цюриха. Важно отметить, что каждый созданный комментарий проверялся одним из наших исследователей для обеспечения отсутствия неприемлемого или неэтичного содержания.

В ходе исследования исследователи отошли от одобренных «ценностно-ориентированных аргументов» к более индивидуальным и персонализированным без предварительного согласования с комиссией по этике Университета Цюриха. Это действие, которое обошло формальную этическую проверку, вызвало серьезное беспокойство относительно его этических последствий.

Почему модераторы Reddit считают исследование неэтичным

Администраторы Reddit Change My View выразили несколько опасений относительно предполагаемого этического нарушения со стороны исследователей, утверждая, что те неверно представили жертв сексуального насилия. Они полагают, что данное действие является «психологической манипуляцией», направленной против первоначальных авторов (OPs), которые начали каждую дискуссию.

Ученые утверждают, что психологически воздействовать на пользователей (OPs) этой платформы допустимо из-за существенного пробела в текущих исследованиях, так как полевые эксперименты отсутствуют. Однако, если OpenAI сможет разработать более этический подход к подобным исследованиям, исследователи должны стремиться к тому же самому. Опасности психологической манипуляции, связанные с большими языковыми моделями, были широко исследованы. Нет необходимости проводить эксперименты на невольных участниках исследований. Исследование показало, что искусственный интеллект применялся для индивидуализированного подхода к конкретным пользователям (OPs) без их согласия, собирая обширные данные об уникальных характеристиках путем очистки платформы Reddit. Ниже следует фрагмент предполагаемых выводов исследования. В качестве SEO-специалиста я использую стратегию включения пользовательских данных в процесс создания контента, включая такие детали как пол, возраст, этническая принадлежность, местоположение и политические предпочтения, которые извлекаю из прошлых постов пользователя с помощью другого AI модели. AI притворяется жертвой изнасилования AI выступает консультантом по травме, специализирующимся на насилии AI обвиняет членов религиозной группы в ‘причине смерти сотен невинных торговцев, фермеров и сельских жителей’ AI изображает черного мужчину, выступающего против Black Lives Matter AI представляется человеком, получившим некачественную медицинскую помощь за рубежом.

Команда модераторов подала жалобу в Университет Цюриха

AI боты убедительны?

Исследование показало, что боты искусственного интеллекта удивительно убедительны, часто превосходят людей в способности влиять на мнения других.

Как специалист по SEO, я бы переформулировал данное предложение следующим образом: ‘В ходе недавнего эксперимента в области искусственного интеллекта, касающегося убеждения через языковые модели (LLM), было доказано, что эти модели могут быть чрезвычайно убедительными в реальных условиях, превзойдя все известные показатели человеческой убедительности.’

Один из выводов показал, что люди часто испытывают трудности в различении взаимодействия с машиной и человеком. По всей искренности они предложили социальным сетям больше инвестировать ресурсов в разработку эффективных методов определения и фильтрации учетных записей, управляемых искусственным интеллектом.

Интересно, наш эксперимент подтверждает сложность различения контента, созданного человеком и искусственным интеллектом… В ходе изучения на r/ChangeMyView участники не выразили сомнений в том, что комментарии наших аккаунтов могли быть сгенерированы ИИ. Это предполагает высокую эффективность ботнетов под управлением искусственного интеллекта… Такие системы потенциально могут интегрироваться в онлайн-сообщества без подозрений. Учитывая эти потенциальные проблемы, мы утверждаем, что интернет-среды должны активно создавать и внедрять надежные системы обнаружения, процессы верификации контента и способствовать открытости для борьбы с распространением дезинформации, вызванной ИИ.

Итоги

  • Этические нарушения в исследованиях по убеждению с помощью ИИ Исследователи провели живой эксперимент по влиянию искусственного интеллекта без согласия Reddit, нарушив правила сабреддита и предположительно этические нормы.
  • Оспариваемые этические утверждения. Исследователи заявляют о своей этической правоте, ссылаясь на одобрение совета по этике, но умолчали о нарушениях правил; модераторы утверждают, что участвовали в неразглашаемой психологической манипуляции.
  • Использование персонализации в аргументации ИИ. Предполагалось, что боты искусственного интеллекта использовали полученные данные о личных данных пользователей для создания узкоспециализированных аргументов, направленных на пользователей Реддита.
  • Модераторы Reddit утверждают, что боты искусственного интеллекта выдавали себя за жертв сексуального насилия, консультантов по травме и других эмоционально заряженных персонажей с целью манипуляции мнениями.
  • Превосходство ИИ в убеждении и трудности обнаружения
  • Научная работа случайно обосновывает необходимость запрета ботов ИИ в социальных сетях.
    Исследование подчеркивает острую потребность платформ социальных сетей разрабатывать инструменты для обнаружения и проверки контента, созданного искусственным интеллектом. По иронии судьбы, сама научная работа является аргументом за более жесткий запрет ботов ИИ на социальных медиа и форумах.

Исследователи из Цюрихского университета изучили, могут ли боты искусственного интеллекта (ИИ) убеждать людей более успешно, чем люди. Они делали это скрытно, используя персонализированные аргументы ИИ на subreddit ChangeMyView, что противоречит правилам платформы и возможно выходит за рамки этических норм, одобренных комитетом по этике их университета. Результаты указывают на то, что боты ИИ обладают высокой степенью убедительности и трудно идентифицируются, но способ проведения исследования вызвал этические дебаты.

Прочитайте опасения, высказанные модераторами сабреддита ChangeMyView:

Неавторизованный эксперимент с CMV, включающий комментарии, созданные искусственным интеллектом

Смотрите также

2025-04-29 01:10