Исследование NewsGuard показывает, что чат-боты на базе ИИ испытывают трудности с распознаванием видео, созданных с помощью ИИ
Brief news summary
Недавнее исследование NewsGuard показало, что крупные чат-боты с искусственным интеллектом, такие как ChatGPT от OpenAI, Grok от xAI и Gemini от Google, испытывают трудности с обнаружением видео, созданных искусственным интеллектом, с уровнем ошибок от 78% до 95%. Эти системы часто пропускают синтетические видео, особенно те, на которых отсутствуют водяные знаки AI, а иногда неверно классифицируют материалы с водяными знаками. Хотя Gemini от Google показал немного лучшие результаты, сильные недостатки всё равно сохраняются. По мере того как мультимедиа, созданная AI, становится всё более распространённой, эти проблемы с обнаружением представляют серьёзную угрозу для модерации контента и борьбы с дезинформацией. Эксперты подчеркивают необходимость срочного совершенствования технологий обнаружения, улучшения алгоритмов чат-ботов и разработки стандартных прозрачных методов маркировки синтетических материалов. Важна совместная работа разработчиков ИИ, специалистов по кибербезопасности и регуляторов для создания надёжных протоколов. Также крайне важно обучать пользователей и модераторов распознавать контент, созданный AI, чтобы снизить риски манипуляций. Это исследование выявило значительные пробелы в возможностях существующих инструментов ИИ по защите целостности цифровой информации, подчёркивая необходимость развития методов обнаружения для поддержания доверия в цифровой среде.Недавнее исследование NewsGuard выявило существенные недостатки некоторых из ведущих мировых чатботов на базе ИИ в области распознавания видеоматериалов, созданных искусственным интеллектом. В ходе исследования было показано, что крупные AI-аспиранты, такие как ChatGPT от OpenAI, Grok от xAI и Gemini от Google, часто не умеют распознавать видео, созданные искусственным интеллектом, особенно если эти видео не содержат явных отметок. Исследование включало тщательное тестирование реакций чатботов на AI-сгенерированные видео без водяных знаков, указывающих на их синтетическую природу. Результаты оказались поразительными: в большинстве случаев — от 78% до 95% — чатботы неправильно определяли видео как созданные AI. Это означает, что при вопросах о природе таких видео эти системы зачастую воспринимали их как подлинный гуманитарный контент, несмотря на их искусственное происхождение. Даже при наличии водяных знаков, сигнализирующих о том, что видео созданы AI, двое из трех чатботов — ChatGPT и Grok — всё равно часто не могли последовательно обнаружить эти признаки. Они неправильно классифицировали значительную часть видео с водяными знаками, показывая устойчивые пробелы в способностях современной распознающей AI системы. Gemini от Google показал себя чуть лучше, но и он сталкивался с трудностями при определенных условиях тестирования. Эти результаты особенно важны на фоне растущего объема мультимедийного контента, создаваемого AI, который осложняет задачи модерации контента, борьбы с дезинформацией и проверки подлинности цифровых медиа. Неспособность чатботов надежно выявлять синтетические видео вызывает опасения о возможных ошибках и непреднамеренном распространении неподтвержденных материалов.
Специалисты в области цифровых расследований и медиагарантии подчеркивают необходимость срочного совершенствования методов обнаружения, чтобы идти в ногу с развитием технологий создания видео с помощью ИИ. Они считают, что улучшения необходимы не только в алгоритмах чатботов, но и во всей системе инструментов для проверки цифрового контента. Эта проблема отражает более широкие общественные вызовы в сфере управления и смягчения последствий синтетических медиа, часто называемых дипфейками, которые могут использоваться для дезинформации, мошенничества и подрыва доверия к цифровым коммуникациям. Исследование подчеркивает необходимость увеличения сотрудничества между разработчиками ИИ, специалистами по кибербезопасности и регулирующими органами для разработки универсальных методов маркировки и обнаружения, которые можно внедрять по всему миру. Такие меры способствовали бы прозрачной маркировке контента, созданного AI, и позволили цифровым платформам лучше бороться с рисками, связанными с синтетическими видео. Также крайне важно продолжать обучение пользователей и модераторов контента, чтобы они лучше могли распознавать материалы, созданные ИИ, что поможет снизить риски манипуляции. В целом, исследование NewsGuard выявляет важный недостаток современной AI-технологии. По мере усложнения и расширения возможностей синтетических медиа повышать способность чатботов правильно определять видео, созданные ИИ, необходимо для защиты целостности информации. Решение этих задач — ключ к созданию надежных цифровых сред и ответственного использования искусственного интеллекта в медиа.
Watch video about
Исследование NewsGuard показывает, что чат-боты на базе ИИ испытывают трудности с распознаванием видео, созданных с помощью ИИ
Try our premium solution and start getting clients — at no cost to you