Несколько лет назад Reddit переформатировал себя как "сердце интернета", подчеркивая свою органическую, ориентированную на сообщество природу, в отличие от социальных платформ, управляемых алгоритмами. Пользователи ценили сайт за то, что его содержание курировали люди с помощью голосов "за" и "против", что отражало искреннее человеческое взаимодействие. Однако на этой неделе участники популярного сабреддита обнаружили, что их сообщество было внедрено под прикрытием исследователями, которые публиковали комментарии, созданные ИИ, маскируясь под мнения человека. Redditоры активно отреагировали, называя эксперимент "нарушением", "позором", "вызывающим ярость" и "очень тревожным". Исследователи замолчали после волны критики и отказались раскрывать свою личность или методологию. Университет Цюриха, где работают эти исследователи, объявил о расследовании, а главный юрисконсульт Reddit Бен Ли заявил, что компания намерена привлечь их к ответственности. Интернет-исследователи также осудили эксперимент как неэтичный. Ам aktivit Bruckman, профессор Georgia Tech с более чем 20-летним опытом изучения онлайн-сообществ, назвала его "самым худшим нарушением этики интернет-исследований, которое я когда-либо видел". Были подняты опасения, что такой шум повредит авторитет ученых, использующих этические методы для изучения влияния искусственного интеллекта на человеческое мышление и отношения. Цюрихские исследователи ставили цель определить, могут ли ответы, сгенерированные ИИ, менять мнения, публикуя более 1000 комментариев, созданных ИИ, за четыре месяца в сабреддите r/changemyview, известном дискуссиями по важным общественным и тривиальным темам. Темы обсуждений варьировались от агрессии питбулей до жилищного кризиса и программ по вопросам разнообразия и инклюзии. Иногда AI выражал спорные идеи — утверждал, что просмотр Reddit — пустая трата времени, или предлагал некоторые доводы в пользу теорий заговора о 11 сентября — а также вставлял сфабрикованные личные истории, например, о травматическом консультанте или жертве изнасилования. Персонализированные аргументы ИИ — адаптированные под предполагаемые биографические данные Redditors, такие как пол, возраст и политические взгляды, с помощью другой AI-модели — оказались неожиданно эффективными. Эти комментарии набирали больше голосов в сабреддите, чем большинство сообщений от людей, согласно предварительным данным, конфиденциально предоставленным модераторам Reddit. (Это предполагает, что другие AI-участники не подгоняли свои посты по тому же принципу. ) Убедить Reddit-авторов, что скрытое исследование оправдано, оказалось трудно. После эксперимента исследователи раскрыли свою личность модераторам сабреддита и попросили "разобраться" с участниками. Модераторы, удивленные негативной реакцией, попросили ученых не публиковать результаты и принести извинения, но те отказались.
После более чем месяца переписки модераторы публично обнародовали детали эксперимента (без указания имен исследователей) и выразили свое несогласие. Когда модераторы пожаловались в Университет Цюриха, университет признал, что проект дал важные инсайты и риск минимален, в том числе для участников, например, в контексте травмы. В университете заявили, что экспертиза по этике была уведомлена в прошлом месяце, рекомендовала соблюдать правила сабреддита, и планирует ужесточить контроль в будущем. Исследователи защитили свою работу на Reddit, утверждая, что ни один комментарий не пропагандировал вредные взгляды, и что каждый AI-сгенерированный пост проверялся человеком перед отправкой. Попытки получить комментарии у исследователей были перенаправлены к университету. Важной частью защиты исследователей было утверждение, что обман был необходим для достоверности исследования. Хотя этическая комиссия университета рекомендовала максимально информировать участников, ученые считали, что прозрачность могла бы исказить эксперимент, поскольку для проверки убедительности AI требуется, чтобы субъекты не знали об этом — имитируя реальное взаимодействие с неизвестными участниками. Понимание человеческих реакций на убеждающее воздействие ИИ крайне актуально и достойно исследований. Предварительные данные показывают, что аргументы ИИ являются "высокоубедительными в реальных условиях", превосходя показатели человека. Однако после критики исследователи согласились не публиковать свою работу, оставив результаты неподтвержденными. Идея о том, что искусственные агенты могут влиять на мнения, вызывает тревогу и намекает на возможное злоупотребление. Тем не менее, этические исследования возможны и без обмана. Старший научный сотрудник Университета Техаса в Остине Кристиан Тарсни подтвердил, что лабораторные исследования также показывают высокую убедительность ИИ, иногда даже побуждая сторонников теорий заговора отказаться от своих взглядов. Другие исследования показали, что ChatGPT создавал более убедительные дезинформации, чем люди, и что участники с трудом отличали посты, созданные ИИ, от человеческих. Особенно стоит отметить, что один из сописателей исследования по убедительной искусственной интеллигенции, Гвидо Спитале из Университета Цюриха, общался с одним из участников эксперимента Reddit, который просил оставаться анонимным и сообщил о получении угроз смерти, что подчеркивает сильную эмоциональную реакцию. Резкая критика отражает ощущение предательства внутри сплоченного сообщества Reddit, где взаимное доверие является основой. Ученые сравнили этот инцидент с исследованием эмоциональной заразности Facebook 2012 года, но отметили, что случай Reddit кажется гораздо более личным и навязчивым. Тревогу усиливает раскрытие, что искусственный интеллект способен манипулировать людьми, используя персонализированную информацию, что делает обман еще более тревожным по сравнению с ошибками человеческих исследователей. Обзор многочисленных комментариев ИИ показал, что они в целом разумны и убеждают, что проблема становится еще более зловещей. Без более продвинутых инструментов обнаружения ИИ такие боты рискуют незаметно интегрироваться в онлайн-сообщества — если они уже не делают этого — что создает более широкие проблемы для цифрового дискурса.
Этический спор вокруг комментариев, созданных искусственным интеллектом, в исследовании Reddit вызывает сопротивление
Инструменты продаж на базе искусственного интеллекта трансформируют бизнес, увеличивая производительность до 30% и доходы на 25%, при это 94% сотрудников и почти все руководители высшего звена уже используют их.
После более двух лет использования SE Ranking я считаю его мощным, в то же время удобным набором инструментов для SEO.
Создатели контента на множестве платформ все активнее используют инструменты автоматического суммирования видео на базе искусственного интеллекта, чтобы повысить эффективность своих процессов курирования и переработки материалов.
WitnessAI, инновационный стартап в области кибербезопасности, сосредоточенный на защите корпоративных систем искусственного интеллекта, привлек $58 миллионов в последнем раунде финансирования.
Adobe превратил его в основной продукт компании.
В быстро меняющемся цифровом рынке компании электронной коммерции постоянно ищут инновационные способы усилить своё присутствие в сети и увеличить продажи.
Быстрый прогресс искусственного интеллекта (ИИ) глубоко трансформирует виртуальные встречи, главным образом за счёт его интеграции в инструменты видеоконференций.
Launch your AI-powered team to automate Marketing, Sales & Growth
and get clients on autopilot — from social media and search engines. No ads needed
Begin getting your first leads today