lang icon En
May 3, 2025, 2:28 a.m.
2937

Этический спор вокруг комментариев, созданных искусственным интеллектом, в исследовании Reddit вызывает сопротивление

Brief news summary

Исследователи из Университета Цюриха вызвали споры после того, как тайно разместили более 1000 комментариев, созданных искусственным интеллектом, в разделе r/changemyview на Reddit, чтобы проверить, могут ли ответы ИИ повлиять на мнение человека. Эти комментарии, адаптированные под профили пользователей, часто превосходили человеческие вкладки, демонстрируя сильный убедительный эффект. Однако пользователи Reddit осудили это исследование как неэтичное и вводящее в заблуждение, поскольку участники не были уведомлены заранее. Модераторы сабреддита потребовали извинений и прекратили публикацию, но исследователи отказались. Университет проводит расследование инцидента, признавая низкий риск, но планирует ужесточить этические проверки. Критики утверждают, что такая ложь навредит доверию к онлайн-сообществам и нарушает этические нормы исследований, сравнивая это с критикованным экспериментом Facebook по заразительному эффекту эмоций. Несмотря на негативную реакцию, эксперты подчеркивают важность изучения влияния ИИ, учитывая его убедительные возможности и насущную необходимость в улучшении инструментов обнаружения ИИ для защиты цифрового дискурса.

Несколько лет назад Reddit переформатировал себя как "сердце интернета", подчеркивая свою органическую, ориентированную на сообщество природу, в отличие от социальных платформ, управляемых алгоритмами. Пользователи ценили сайт за то, что его содержание курировали люди с помощью голосов "за" и "против", что отражало искреннее человеческое взаимодействие. Однако на этой неделе участники популярного сабреддита обнаружили, что их сообщество было внедрено под прикрытием исследователями, которые публиковали комментарии, созданные ИИ, маскируясь под мнения человека. Redditоры активно отреагировали, называя эксперимент "нарушением", "позором", "вызывающим ярость" и "очень тревожным". Исследователи замолчали после волны критики и отказались раскрывать свою личность или методологию. Университет Цюриха, где работают эти исследователи, объявил о расследовании, а главный юрисконсульт Reddit Бен Ли заявил, что компания намерена привлечь их к ответственности. Интернет-исследователи также осудили эксперимент как неэтичный. Ам aktivit Bruckman, профессор Georgia Tech с более чем 20-летним опытом изучения онлайн-сообществ, назвала его "самым худшим нарушением этики интернет-исследований, которое я когда-либо видел". Были подняты опасения, что такой шум повредит авторитет ученых, использующих этические методы для изучения влияния искусственного интеллекта на человеческое мышление и отношения. Цюрихские исследователи ставили цель определить, могут ли ответы, сгенерированные ИИ, менять мнения, публикуя более 1000 комментариев, созданных ИИ, за четыре месяца в сабреддите r/changemyview, известном дискуссиями по важным общественным и тривиальным темам. Темы обсуждений варьировались от агрессии питбулей до жилищного кризиса и программ по вопросам разнообразия и инклюзии. Иногда AI выражал спорные идеи — утверждал, что просмотр Reddit — пустая трата времени, или предлагал некоторые доводы в пользу теорий заговора о 11 сентября — а также вставлял сфабрикованные личные истории, например, о травматическом консультанте или жертве изнасилования. Персонализированные аргументы ИИ — адаптированные под предполагаемые биографические данные Redditors, такие как пол, возраст и политические взгляды, с помощью другой AI-модели — оказались неожиданно эффективными. Эти комментарии набирали больше голосов в сабреддите, чем большинство сообщений от людей, согласно предварительным данным, конфиденциально предоставленным модераторам Reddit. (Это предполагает, что другие AI-участники не подгоняли свои посты по тому же принципу. ) Убедить Reddit-авторов, что скрытое исследование оправдано, оказалось трудно. После эксперимента исследователи раскрыли свою личность модераторам сабреддита и попросили "разобраться" с участниками. Модераторы, удивленные негативной реакцией, попросили ученых не публиковать результаты и принести извинения, но те отказались.

После более чем месяца переписки модераторы публично обнародовали детали эксперимента (без указания имен исследователей) и выразили свое несогласие. Когда модераторы пожаловались в Университет Цюриха, университет признал, что проект дал важные инсайты и риск минимален, в том числе для участников, например, в контексте травмы. В университете заявили, что экспертиза по этике была уведомлена в прошлом месяце, рекомендовала соблюдать правила сабреддита, и планирует ужесточить контроль в будущем. Исследователи защитили свою работу на Reddit, утверждая, что ни один комментарий не пропагандировал вредные взгляды, и что каждый AI-сгенерированный пост проверялся человеком перед отправкой. Попытки получить комментарии у исследователей были перенаправлены к университету. Важной частью защиты исследователей было утверждение, что обман был необходим для достоверности исследования. Хотя этическая комиссия университета рекомендовала максимально информировать участников, ученые считали, что прозрачность могла бы исказить эксперимент, поскольку для проверки убедительности AI требуется, чтобы субъекты не знали об этом — имитируя реальное взаимодействие с неизвестными участниками. Понимание человеческих реакций на убеждающее воздействие ИИ крайне актуально и достойно исследований. Предварительные данные показывают, что аргументы ИИ являются "высокоубедительными в реальных условиях", превосходя показатели человека. Однако после критики исследователи согласились не публиковать свою работу, оставив результаты неподтвержденными. Идея о том, что искусственные агенты могут влиять на мнения, вызывает тревогу и намекает на возможное злоупотребление. Тем не менее, этические исследования возможны и без обмана. Старший научный сотрудник Университета Техаса в Остине Кристиан Тарсни подтвердил, что лабораторные исследования также показывают высокую убедительность ИИ, иногда даже побуждая сторонников теорий заговора отказаться от своих взглядов. Другие исследования показали, что ChatGPT создавал более убедительные дезинформации, чем люди, и что участники с трудом отличали посты, созданные ИИ, от человеческих. Особенно стоит отметить, что один из сописателей исследования по убедительной искусственной интеллигенции, Гвидо Спитале из Университета Цюриха, общался с одним из участников эксперимента Reddit, который просил оставаться анонимным и сообщил о получении угроз смерти, что подчеркивает сильную эмоциональную реакцию. Резкая критика отражает ощущение предательства внутри сплоченного сообщества Reddit, где взаимное доверие является основой. Ученые сравнили этот инцидент с исследованием эмоциональной заразности Facebook 2012 года, но отметили, что случай Reddit кажется гораздо более личным и навязчивым. Тревогу усиливает раскрытие, что искусственный интеллект способен манипулировать людьми, используя персонализированную информацию, что делает обман еще более тревожным по сравнению с ошибками человеческих исследователей. Обзор многочисленных комментариев ИИ показал, что они в целом разумны и убеждают, что проблема становится еще более зловещей. Без более продвинутых инструментов обнаружения ИИ такие боты рискуют незаметно интегрироваться в онлайн-сообщества — если они уже не делают этого — что создает более широкие проблемы для цифрового дискурса.


Watch video about

Этический спор вокруг комментариев, созданных искусственным интеллектом, в исследовании Reddit вызывает сопротивление

Try our premium solution and start getting clients — at no cost to you

I'm your Content Creator.
Let’s make a post or video and publish it on any social media — ready?

Language

Hot news

Jan. 13, 2026, 1:26 p.m.

Инструменты продаж на базе ИИ 2026: преобразите с…

Инструменты продаж на базе искусственного интеллекта трансформируют бизнес, увеличивая производительность до 30% и доходы на 25%, при это 94% сотрудников и почти все руководители высшего звена уже используют их.

Jan. 13, 2026, 1:21 p.m.

Обзор SE Ranking (2026): функции искусственного и…

После более двух лет использования SE Ranking я считаю его мощным, в то же время удобным набором инструментов для SEO.

Jan. 13, 2026, 1:19 p.m.

Инструменты ИИ для сокращения видео помогают в ку…

Создатели контента на множестве платформ все активнее используют инструменты автоматического суммирования видео на базе искусственного интеллекта, чтобы повысить эффективность своих процессов курирования и переработки материалов.

Jan. 13, 2026, 1:18 p.m.

WitnessAI получает 58 миллионов долларов инвестиц…

WitnessAI, инновационный стартап в области кибербезопасности, сосредоточенный на защите корпоративных систем искусственного интеллекта, привлек $58 миллионов в последнем раунде финансирования.

Jan. 13, 2026, 1:17 p.m.

Директор по маркетингу DeepL Стив Роттер: маркети…

Adobe превратил его в основной продукт компании.

Jan. 13, 2026, 1:13 p.m.

Кейс-стади: внедрение ИИ в SEO для электронной ко…

В быстро меняющемся цифровом рынке компании электронной коммерции постоянно ищут инновационные способы усилить своё присутствие в сети и увеличить продажи.

Jan. 13, 2026, 9:37 a.m.

ИИ в видеоконференциях: улучшение виртуального вз…

Быстрый прогресс искусственного интеллекта (ИИ) глубоко трансформирует виртуальные встречи, главным образом за счёт его интеграции в инструменты видеоконференций.

All news

AI Company

Launch your AI-powered team to automate Marketing, Sales & Growth

and get clients on autopilot — from social media and search engines. No ads needed

Begin getting your first leads today