lang icon English
Oct. 10, 2025, 6:22 a.m.
1084

Aplikacja Sora firmy OpenAI rewolucjonizuje tworzenie głębokich fałszywek AI i budzi obawy o bezpieczeństwo cyfrowe

Filmy stworzone za pomocą aplikacji Sora od OpenAI szybko zdobywają popularność na platformach takich jak TikTok i Instagram Reels, przez co syntetyczne treści generowane przez AI stają się niemal nieuniknione – co wielu użytkowników coraz bardziej frustruje. Jednak eksperci ds. bezpieczeństwa cyfrowego ostrzegają przed głębszym, mniej oczywistym wpływem: OpenAI skutecznie przemianowało deepfakes na zabawną, mainstreamową tendencję, chętnie promowaną przez algorytmy rekomendacji. Gdy miliony użytkowników mają styczność z tymi filmami, kształtują się nowe postrzegania prawdy i normy online. Daisy Soderberg-Rivkin, byłza menedżerka ds. zaufania i bezpieczeństwa na TikToku, opisała to jako zdobycie dla deepfake’ów „publicysty i umowy dystrybucyjnej”, co wzmacnia już i tak niepokojącą technologię na nowej, ogromnej platformie. Aaron Rodericks, kierownik ds. zaufania i bezpieczeństwa w Bluesky, ostrzegł, że społeczeństwo nie jest przygotowane na zaciemnianie granic między rzeczywistością a fałszem. Zwrócił uwagę na ryzyko łatwego fałszowania dowodów oskarżających grupy tożsamościowe lub jednostki, a także na masowe oszustwa, przy czym większość użytkowników nie posiada umiejętności medialnych ani narzędzi do rozróżniania prawdy od fikcji. Trzech byłych pracowników OpenAI powiedziało NPR, że nie byli zaskoczeni premierą Sora, postrzegając to jako strategiczny krok, by zaprezentować nową technologię wideo w okresie presji inwestorów, przypominającej debiut ChatGPT. OpenAI wprowadziło kilka zabezpieczeń bezpieczeństwa – w tym moderację, zakazy oszustw, przemocy i pornografii, znakowanie wodne oraz kontrole nad wykorzystaniem podobieństw – chociaż użytkownicy często znajdują sposoby na obejście tych środków, co wymusza dalsze reakcje firmy. Anonimowy były pracownik OpenAI wyraził obawę, że w miarę rosnącej konkurencji w zakresie generowania treści wideo przez AI, zasady bezpieczeństwa mogą zostać osłabione, co może zaszkodzić społeczeństwu. Soderberg-Rivkin przewidziała, że pojawią się nieuregulowane aplikacje podobne do Sora – podobne do chatbota Grok Elona Muska – które będą wykorzystywane do tworzenia szkodliwych treści syntetycznych, takich jak materiały o charakterze seksualnym dzieci lub realistycznej propagandy sponsorowanej przez państwo. Obecnie Sora jest najpopularniejszą aplikacją na iPhone’ach, ale dostępna jest tylko na zaproszenie.

Użytkownicy zauważają rosnące ograniczenia: impersonifikacje celebrytów i ekstremalne fałszywki (np. fałszywe filmy Jeffrey’a Epsteina czy oświadczenia Seana “Diddy’ego” Combsa z więzienia) stają się trudniejsze do tworzenia, choć kontrowersyjne treści, takie jak pokazanie aresztowań czy mundurów nazistowskich, wciąż generują filmy. CEO OpenAI, Sam Altman, zapowiedział plany zmiany polityki wykorzystania podobieństw z „opty-out” na „opty-in” oraz ostateczne dzielenie się przychodami z właścicielami praw, co wskazuje na szybkie ewoluowanie podejścia, podobnie jak na początku z ChatGPT. Napływ treści tworzonych przez AI rodzi pytania o zmęczenie użytkowników i o to, czy platformy będą zerkały na tego rodzaju materiały lub je zakazywały. Soderberg-Rivkin uważa, że zakaz jest mało prawdopodobny i nawet nieefektywny, biorąc pod uwagę coraz trudniejsze wykrywanie treści AI w tekstach, obrazach i filmach. Ostrzega, że polityka „bez AI” nie powstrzyma infiltracji sztucznej inteligencji w przestrzeń online. Inny były pracownik OpenAI twierdzi, że uruchomienie społecznej aplikacji deepfake’ów to rozsądny krok biznesowy, mimo pogarszającej się erosion rzeczywistości, i zaznacza, że było to nieuniknione, iż ktoś zdominuje ten rynek. Tymczasem Meta i Google wprowadziły konkurencyjne narzędzia AI do tworzenia wideo (Vibes i Veo 3), ale premiera Sora naprawdę przyspieszyła proliferację spersonalizowanych treści wideo generowanych przez sztuczną inteligencję. Eksperci ds. zaufania i bezpieczeństwa postrzegają Sora jako historyczny punkt zwrotny, w którym deepfakes przechodzą od rzadkich ciekawostek do codziennych treści cyfrowych, co może prowadzić do wycofania się użytkowników z mediów społecznościowych lub upadku zaufania do integralności treści online. Specjaliści ds. dezinformacji od dawna ostrzegają przed „dywidendą kłamcy” – sytuacją, gdy obfitość deepfake’ów pozwala odrzucić prawdziwe treści jako fałszywe – lecz obecna sytuacja jest bardziej paląca niż kiedykolwiek.



Brief news summary

Aplikacja Sora od OpenAI szybko zwiększa obecność głęboko falsyfikowanych filmów wygenerowanych przez sztuczną inteligencję na mediach społecznościowych, czyniąc syntetyczne treści bardziej powszechnymi i wywołując poważne obawy dotyczące zaufania cyfrowego i bezpieczeństwa. Postrzegając deepfakes jako rozrywkę, Sora poprawia algorytmy rekomendacji i zmienia postrzeganie prawdy w sieci przez użytkowników. To, co kiedyś było rzadkimi filmami tworzonymi przez AI, teraz jest szeroko dostępne, zacierając granicę między faktem a fikcją. Pomimo działań OpenAI — moderacji treści, znaków wodnych i kontroli podobieństwa — wielu użytkowników obejmuje ograniczenia, zwiększając ryzyko nadużycia. Eksperci ostrzegają, że presja konkurencji może skłonić firmy do osłabienia środków bezpieczeństwa, co umożliwi rozpowszechnianie szkodliwych treści, takich jak syntetyczne obrazy przemocy wobec dzieci czy propaganda. OpenAI planuje wdrożyć obowiązkową zgodę na użycie podobieństwa oraz podział zysków z posiadaczami praw, jednak wykrywanie treści generowanych przez AI jest nadal dużym wyzwaniem. W miarę jak konkurenci tacy jak Meta i Google wprowadzają podobne narzędzia, ekspansja Sory może przyczynić się do normalizacji deepfake’ów, osłabienia zaufania cyfrowego i pogłębienia zjawiska „dywidendy kłamcy”, czyli sytuacji, gdy fałszywe zaprzeczenia wobec autentycznych dowodów zagrażają integralności internetu.

Watch video about

Aplikacja Sora firmy OpenAI rewolucjonizuje tworzenie głębokich fałszywek AI i budzi obawy o bezpieczeństwo cyfrowe

Try our premium solution and start getting clients — at no cost to you

I'm your Content Creator.
Let’s make a post or video and publish it on any social media — ready?

Language

Hot news

Oct. 14, 2025, 6:43 a.m.

OpenAI wybiera Broadcom do budowy swojego pierwsz…

OpenAI ogłosiło ważne partnerstwo z Broadcomem w celu stworzenia własnych, niestandardowych procesorów sztucznej inteligencji, mających na celu zaspokojenie rosnącego zapotrzebowania na wysokiej wydajności moc obliczeniową niezbędną do postępu technologii AI.

Oct. 14, 2025, 6:32 a.m.

Gartner przewiduje, że do 2028 roku 10% sprzedawc…

Do 2028 roku szacuje się, że 10% specjalistów ds.

Oct. 14, 2025, 6:19 a.m.

Publicis we Francji twierdzi, że sztuczna intelig…

Francuski gigant reklamy Publicis ponownie podniósł prognozę wzrostu organicznego na rok 2025, głównie dzięki postępom w sztucznej inteligencji (SI).

Oct. 14, 2025, 6:15 a.m.

Postępy technologii generowania wideo przez sztuc…

Przemysł rozrywkowy przeżywa ogromną transformację dzięki wdrożeniu technologii generowania wideo za pomocą sztucznej inteligencji, co ma zrewolucjonizować sposób tworzenia i konsumpcji treści.

Oct. 14, 2025, 6:14 a.m.

AI w SEO: Udoskonalanie tworzenia i optymalizacji…

Integracja sztucznej inteligencji (SI) z optymalizacją pod kątem wyszukiwarek (SEO) głęboko przekształca dziedzinę tworzenia i optymalizacji treści.

Oct. 14, 2025, 6:13 a.m.

SMM Deal Finder uruchamia platformę opartą na szt…

SMM Deal Finder uruchomił innowacyjną platformę opartą na sztucznej inteligencji, mającą zrewolucjonizować pozyskiwanie klientów dla marketerów social media.

Oct. 13, 2025, 2:27 p.m.

Techniki kompresji wideo oparte na sztucznej inte…

Postępy w sztucznej inteligencji (SI) transformują sposób dostarczania treści wideo, znacznie poprawiając doświadczenia związane z przesyłem strumieniowym dla użytkowników na całym świecie.

All news

AI team for your Business

Automate Marketing, Sales, SMM & SEO

and get clients on autopilot — from social media and search engines. No ads needed

and get clients today