lang icon En
Oct. 10, 2025, 6:22 a.m.
3068

Додаток Sora від OpenAI революціонізує глибокі фейки у відео з штучним інтелектом та викликає занепокоєння щодо цифрової безпеки

Brief news summary

Додаток Sora від OpenAI швидко збільшує присутність глибоких фейків, створених за допомогою штучного інтелекту, на соціальних мережах, роблячи синтетичний контент більш поширеним і викликаючи значні занепокоєння щодо цифрової довіри та безпеки. За допомогою подання глибоких фейків як розваги, Sora покращує алгоритми рекомендацій і змінює сприйняття користувачів щодо правдивості онлайн. Те, що раніше було рідкісними відео, створеними ШІ, тепер стає звичайним явищем, що стирає межу між фактами й вигадкою. Незважаючи на заходи OpenAI — модерацію контенту, водяні знаки та контроль інтелектуальної власності — багато користувачів обходять обмеження, що посилює ризики зловживань. Експерти попереджають, що конкурентний тиск може змусити компанії послабити заходи безпеки, дозволяючи поширення шкідливого контенту, такого як синтетичні зображення дитячої зламы та пропаганди. OpenAI планує запровадити згоди на використання подібностей і розподіл доходів з право володіями, але виявлення контенту, створеного ШІ, залишаються викликом. З появою подібних інструментів у конкурентів, таких як Meta та Google, розширення Sora може зробити глибокі фейки звичним явищем, послабити цифрову довіру та погіршити так званий «дивіденд брехуна», коли фальшиві заперечення автентичних доказів ставлять під загрозу цілісність інтернету.

Відео, створені за допомогою додатку Sora від OpenAI, швидко заповнюють платформи, такі як TikTok і Instagram Reels, роблячи синтезований контент, згенерований штучним інтелектом, майже неминучим — що багато користувачів знаходять все більш розчаровуючим. Однак експерти з цифрової безпеки попереджають про глибший, менш очевидний вплив: OpenAI фактично переінакшив діпфейки у грайливий, мейнстрімовий тренд, активно просувається алгоритмами рекомендацій. Мільйони людей стикаються з цими відео, і сприйняття правди та норми онлайн формуються заново. Дейзі Содерберг-Рівкін, колишня менеджерка з довіри та безпеки TikTok, описала це так: діпфейки отримали "публіціста і угоду на поширення", що посилює вже й без того тривожну технологію на новій, величезній платформі. Аарон Родерікс, керівник з довіри та безпеки у Bluesky, попередив, що суспільство не готове до розмивання межі між реальністю і підробкою. Він наголосив на ризиках, таких як легке створення фальшивих доказів, спрямованих проти груп або окремих осіб, та масштабних шахрайствах, при цьому більшість користувачів не мають медіаграмотності або інструментів для розрізнення правди і вигадки. Три колишні працівники OpenAI повідомили NPR, що не здивувалися запуску Sora, розглядаючи його як стратегічний хід для демонстрації нових відеотехнологій під тиском інвесторів, що нагадує дебют ChatGPT. OpenAI впровадила кілька заходів безпеки — модерацію, заборони на шахрайство, насильство та порнографію, водяні знаки і контроль за використанням образів — хоча користувачі часто знаходять спосіб обійти ці заходи, що викликає подальші реакції компанії. Один анонімний колишній працівник OpenAI висловив занепокоєння, що через посилення конкуренції у сфері відео, згенерованого штучним інтелектом, правила безпеки можуть послабити, що потенційно шкодитиме суспільству. Содерберг-Рівкін спрогнозувала, що з’являться незахищені додатки, подібні до Sora — наприклад, без заходів безпеки і схожі на чат-бот Grok Ілона Маска, — котрі, ймовірно, будуть використовуватися для створення шкодотворного синтетичного контенту, такого як дитяча сексуальна експлуатація або державна пропаганда з високою реалістичністю. Зараз Sora є найпопулярнішим додатком для iPhone, але поки що доступний лише за запрошеннями.

Користувачі відмічають посилення обмежень: імітації знаменитостей і екстремальні фейки (наприклад, фальшиві відео Джеффрі Епштейна або заяви Сіона “P Diddy” Комбса з в'язниці) стали важче створювати, хоча спірний контент, такий як арешти або носіння нацистського одягу, все ще викликає появу відео. Генеральний директор OpenAI Сем Альтман оголосив про намір перейти від використання образів за принципом “відмови” до “згоди” і згодом ділитися доходом із правовласниками, що вказує на швидкий розвиток підходу, подібного до початкових днів ChatGPT. Потік контенту, створеного ШІ, підняв питання щодо втоми користувачів і ймовірності того, що платформи почнуть жорстко регулювати або забороняти такий матеріал. Содерберг-Рівкін вважає, що заборона малоймовірна і все одно буде неефективною, оскільки стає дедалі важче розпізнавати контент, створений ШІ, у текстах, зображеннях і відео. Вона застерігає, що політика “без AI” не зможе зупинити проникнення штучного інтелекту в онлайн-медіа. Ще один колишній працівник OpenAI вважає, що запуск додатку для соціальних мереж із діпфейками був розумним бізнес-рішенням, незважаючи на погіршення реальності та її руйнування, і відзначає, що неминуче хтось домінуватиме на цьому ринку. Тим часом Meta і Google представили конкуруючі інструменти для створення відео з AI (Vibes і Veo 3), але запуск Sora дійсно прискорив поширення персоналізованого AI-вмісту. Експерти з довіри і безпеки вважають Sora історичним поворотним моментом, коли діпфейки перейдуть від рідкісних новинок до повсякденного цифрового контенту, що потенційно може призвести до відмови від соціальних мереж або краху довіри до цілісності онлайн-медіа. Спеціалісти з дезінформації попереджали багато років про “дивіденд брехуна” — явище, коли багато діпфейків дозволяють відкидати реальний контент як фальшивий, — але ця проблематика стає зараз гострішою, ніж будь-коли.


Watch video about

Додаток Sora від OpenAI революціонізує глибокі фейки у відео з штучним інтелектом та викликає занепокоєння щодо цифрової безпеки

Try our premium solution and start getting clients — at no cost to you

I'm your Content Creator.
Let’s make a post or video and publish it on any social media — ready?

Language

Hot news

Dec. 16, 2025, 1:29 p.m.

Щотижневий додаток SaaStr AI: Kintsugi — штучний …

Кожного тижня ми висвітлюємо додаток, заснований на штучному інтелекті, який вирішує реальні проблеми для компаній B2B та хмарних сервісів.

Dec. 16, 2025, 1:24 p.m.

Роль штучного інтелекту у локальних стратегіях SEO

Штучний інтелект (ШІ) усе більше впливає на локальні стратегії пошукової оптимізації (SEO).

Dec. 16, 2025, 1:22 p.m.

IND Technology отримала 33 мільйони доларів для з…

IND Technology, австралійська компанія, що спеціалізується на моніторингу інфраструктури для комунальних послуг, залучила 33 мільйони доларів на зростання для збільшення своїх зусиль, заснованих на штучному розумі для запобігання лісовим пожежам та відключенням електроенергії.

Dec. 16, 2025, 1:21 p.m.

Впровадження штучного інтелекту у публікації стає…

Останні кілька тижнів все більше видавців та брендів стикаються з значним реагуванням громадськості через експерименти з штучним інтелектом (ШІ) у процесах створення контенту.

Dec. 16, 2025, 1:17 p.m.

Google Labs і DeepMind запускають Pomelli: інстру…

Google Labs у партнерстві з Google DeepMind презентувала Pomelli — експеримент на базі штучного інтелекту, створений для допомоги малим та середнім підприємствам у розробці брендових маркетингових кампаній.

Dec. 16, 2025, 1:15 p.m.

Штучний інтелект для розпізнавання відео покращує…

У сучасному швидко розширюваному цифровому просторі компанії соціальних мереж дедалі ширше застосовують передові технології для захисту своїх онлайн-спільнот.

Dec. 16, 2025, 9:37 a.m.

Чому 2026 рік може стати роком антимайнд-маркетин…

Версія цієї історії з’явилася в інформаційній розсилці CNN Business Nightcap.

All news

AI Company

Launch your AI-powered team to automate Marketing, Sales & Growth

and get clients on autopilot — from social media and search engines. No ads needed

Begin getting your first leads today