Видео, созданные с помощью приложения Sora от OpenAI, быстро захватывают платформы такие как TikTok и Instagram Reels, делая синтетический AI-контент почти неминуемым — что вызывает всё большее раздражение у пользователей. Однако эксперты по цифровой безопасности предупреждают о более глубоком и менее очевидном воздействии: OpenAI фактически переформатировал deepfake в игривый, мейнстримный тренд, активно продвигаемый алгоритмами рекомендаций. Пока миллионы сталкиваются с этими видео, представления о правде и онлайн-нормы изменяются. Дейзи Содерберг-Ривкин, бывший менеджер по доверию и безопасности в TikTok, описала это как получение deepfake «пиарщика и дистрибуционного соглашения», что способствует распространению уже вызывающей опасения технологии на новую огромную платформу. Аарон Родерикс, руководитель отдела доверия и безопасности в Bluesky, предупредил, что общество не готово к размыванию границы между реальностью и подделкой. Он выделил риски, такие как лёгко изготовляемые фальшивые доказательства против групп по идентичности или отдельных лиц, а также масштабные мошенничества, при этом большинство пользователей не обладают медиаграмотностью или инструментами для отличия правды от лжи. Три бывших сотрудника OpenAI рассказали NPR, что они не были удивлены запуском Sora, считая его стратегическим шагом для демонстрации новой технологии видео на фоне давления инвесторов, напоминающего запуск ChatGPT. OpenAI внедрила несколько мер безопасности — модерацию, запреты на мошенничество, насилие и порнографию, водяные знаки и контроль использования образов, однако пользователи часто находят способы обойти эти меры, что требует постоянных ответных мер со стороны компании. Один анонимный бывший сотрудник OpenAI выразил опасение, что по мере усиления конкуренции в сфере AI-генерируемого видео, меры по безопасности могут ослабнуть, что потенциально навредит обществу. Содерберг-Ривкин предсказала, что безрегулируемые приложения, аналогичные Sora, появятся — подобно чатботу Grok Илона Маска — и их, вероятно, будут использовать для создания вредоносного синтетического контента, такого как материалы о сексуальном насилии над детьми или пропаганда в интересах государств. В настоящий момент Sora — это самое популярное приложение для iPhone, но оно пока только по приглашениям.
Пользователи отмечают рост ограничений: им сложнее создавать фейковые видео знаменитостей и экстремальный фейк (например, поддельные видео о Джэффри Эпштейне или заявления Шона «Диди» Комса из тюрьмы), хотя контенты, вызывающие споры, такие как аресты или изображения в нацистской форме, всё ещё могут появляться. Генеральный директор OpenAI Сам Алтман объявил о планах перейти с «отключения согласия» на «включение согласия» при использовании образов и в итоге делиться доходами с обладателями прав, что свидетельствует о быстром развитии подхода, похожего на ранние дни ChatGPT. Наплыв AI-сгенерированного контента вызывает вопросы у пользователей о утомлении и о том, начнут ли платформы жестко бороться с такого рода материалами или запрещать их. Содерберг-Ривкин считает, что запрет маловероятен и в любом случае был бы бесполезен, учитывая всё возрастающие сложности в обнаружении AI-контента в текстах, изображениях и видео. Она предостерегла, что политика «без AI» не может остановить проникновение AI в онлайн-пространство. Еще один бывший сотрудник OpenAI отметил, что запуск социальной платформы с deepfake был разумным бизнес-решением, несмотря на ухудшение реальности и её разрушения, подчеркнув, что было неизбежно, что кто-то доминирует на этом рынке. Тем временем Meta и Google представили конкурирующие инструменты для AI-видео (Vibes и Veo 3), однако запуск Sora действительно ускорил распространение персонализированного AI-видео контента. Эксперты по доверию и безопасности видят Sora как исторический переломный момент, когда deepfakes переходят из редких новинок в повседневный цифровой контент, что может привести к уходу пользователей из социальных сетей или к коллапсу доверия к онлайн-медиаконтенту. Специалисты по дезинформации давно предупреждают о «дивидендной службе лжеца» — ситуации, когда обилие deepfake-материалов позволяет отвергать реальный контент как фальшивку — и нынешняя реальность этого феномена стала более актуальной, чем когда-либо.
Приложение Sora от OpenAI революционизирует создание глубокой подделки видео с искусственным интеллектом и вызывает опасения по поводу цифровой безопасности
Автодилеры коммерческих транспортных средств не только внедряют ИИ, но и становятся способными эффективно использовать его для увеличения продаж и улучшения обслуживания клиентов.
На недавней конференции Google Cloud Next 2025 Alphabet и Google продемонстрировали значительные достижения в области облачных вычислений и искусственного интеллекта, подтверждая свою приверженность развитию технологий и совершенствованию облачной инфраструктуры и возможностей ИИ.
Недавно OpenAI представила Sora 2 — крупное обновление своего инструмента для генерации видео на основе текста с использованием искусственного интеллекта, что стало значительным технологическим скачком.
Kuaishou's Kling AI — это революальный инструмент для создания видео, запущенный в июне 2024 года китайской технологической компанией Kuaishou.
OpenAI быстро стал ключевым влиятельным лицом на фондовом рынке, значительно формируя рост экономики искусственного интеллекта (ИИ).
Совет Сенатов США недавно одобрил законодательный акт «GAIN AI» в рамках Закона о национальной обороне (NDAA), который обязывает производителей чипов искусственного интеллекта, таких как Nvidia и AMD, отдавать приоритет заказам американских компаний перед экспортом, особенно в Китай и его союзникам.
Примечание редактора: Эта статья создана в соавторстве с Бартом Виллемсеном и Пенни Гилсеппи, VP-анализаторами Gartner.
Automate Marketing, Sales, SMM & SEO
and get clients on autopilot — from social media and search engines. No ads needed
and get clients today