Videos, die mit OpenAI's Sora-App erstellt wurden, saturieren rasch Plattformen wie TikTok und Instagram Reels und machen synthetische, KI-generierte Inhalte nahezu unvermeidlich – etwas, das viele Nutzer zunehmend frustrierend finden. Experten für digitale Sicherheit warnen jedoch vor einer tieferen, weniger offensichtlichen Auswirkung: OpenAI hat Deepfakes effektiv umbenannt und in einen spielerischen, mainstream-tauglichen Trend verwandelt, der eifrig von Empfehlungsalgorithmen gefördert wird. Während Millionen diese Videos sehen, verändern sich Wahrnehmungen von Wahrheit und Online-Normen. Daisy Soderberg-Rivkin, ehemalige Managerin für Vertrauen und Sicherheit bei TikTok, beschrieb dies so, dass Deepfakes einen „Publicist und ein Vertriebsdeal“ gewinnen, sodass eine bereits beunruhigende Technologie auf eine neue, riesige Plattform ausgeweitet wird. Aaron Rodericks, Leiter für Vertrauen und Sicherheit bei Bluesky, warnte, dass die Gesellschaft auf die Verschmelzung von Realität und Fälschung unvorbereitet sei. Er hob Risiken hervor wie leicht gefälschte Beweise, die sich gegen Identitätsgruppen oder Einzelpersonen richten, sowie groß angelegte Scams, wobei die meisten Nutzer nicht über die Medienkompetenz oder Werkzeuge verfügen, um Wahrheit von Fiktion zu unterscheiden. Drei frühere OpenAI-Mitarbeiter sagten NPR, sie seien nicht überrascht vom Start von Sora und sahen darin eine strategische Maßnahme, um die neue Videotechnologie unter dem Druck der Investoren zu präsentieren — ähnlich wie beim Debüt von ChatGPT. OpenAI hat mehrere Sicherheitsmaßnahmen implementiert, darunter Moderation, Verbote gegen Scams, Gewalt und Pornografie, Wasserzeichen sowie Kontrollen bei der Verwendung von Ähnlichkeiten, doch Nutzer finden oft Wege, diese Schutzmaßnahmen zu umgehen, was zu fortlaufenden Reaktionen des Unternehmens führt. Ein anonym bleibender ehemaliger OpenAI-Mitarbeiter äußerte Bedenken, dass bei wachsendem Wettbewerb im Bereich KI-generierter Social-Media-Videos die Sicherheitsregeln aufgeweicht werden könnten, was potenziell der Gesellschaft schädlich wäre. Soderberg-Rivkin prognostizierte, dass unregulierte, Sora-ähnliche Apps ohne Sicherheitsmaßnahmen entstehen werden – ähnlich dem Elon Musk’s Grok-Chatbot – und wahrscheinlich für die Erstellung schädlicher synthetischer Inhalte wie kinderpornografischem Material oder staatlich gefälschtem Propagandamaterial ausgenutzt werden. Derzeit ist Sora die beliebteste iPhone-App, bleibt aber nur auf Einladung zugänglich. Nutzer berichten von zunehmenden Restriktionen: Nachahmungen von Prominenten und extreme Fälschungen (z.
B. gefälschte Jeffrey-Epstein-Videos oder Sean „Diddy“ Combs im Gefängnis) sind schwieriger zu produzieren, obwohl kontroverse Inhalte wie Festnahmen oder Nazi-Uniformen weiterhin Videos generieren. OpenAI-CEO Sam Altman kündigte an, dass die Nutzung von Ähnlichkeiten vom „Opt-out“- auf das „Opt-in“-Modell umgestellt wird und schrittweise Tantiemen an Rechteinhaber ausgezahlt werden sollen, was eine schnellere Entwicklung angestoßen hat, ähnlich wie in den Anfangstagen von ChatGPT. Der Strom an KI-generierten Inhalten wirft Fragen nach Nutzerermüdung auf und danach, ob Plattformen solche Inhalte einschränken oder verbieten werden. Soderberg-Rivkin hält ein Verbot für unwahrscheinlich und auch unwirksam, da es immer schwieriger wird, KI-Inhalte in Texten, Bildern und Videos zu erkennen. Sie warnte, dass eine „Keine KI“-Politik die Infiltration von KI im Internet nicht aufhalten kann. Ein weiterer ehemaliger OpenAI-Mitarbeiter argumentierte, dass die Einführung einer Deepfake-Sozial-App trotz der Verschlechterung der Realität eine weitsichtige Geschäftsentscheidung sei, da es unvermeidlich sei, dass jemand diesen Markt dominieren würde. Währenddessen haben Meta und Google konkurrierende KI-Videotools (Vibes und Veo 3) eingeführt, doch die Veröffentlichung von Sora hat die Verbreitung personalisierter KI-Videoinhalte tatsächlich beschleunigt. Vertrauens- und Sicherheitsexperten sehen Sora als einen historischen Wendepunkt, an dem Deepfakes vom seltenen Kuriosum zum alltäglichen digitalen Inhalt werden, was möglicherweise zu einem Rückgang der sozialen Mediennutzung oder zum Zusammenbruch des Vertrauens in die Integrität der Online-Medien führen könnte. Desinformationsexperten haben lange vor dem „Lügner-Dividenden“ gewarnt – bei dem die Fülle an Deepfakes dazu führt, dass echte Inhalte als Fake abgetan werden –, doch die Dringlichkeit dieses Phänomens ist heute größer denn je.
OpenAI’s Sora-App revolutioniert KI-Deepfake-Videos und wirft Fragen zur digitalen Sicherheit auf
Kuaishous Kling AI ist ein bahnbrechendes Tool zur Videoerstellung, das im Juni 2024 von dem chinesischen Tech-Unternehmen Kuaishou eingeführt wurde.
OpenAI ist schnell zu einem Schlüsselakteur an den Aktienmärkten geworden und prägt maßgeblich das Wachstum der künstlichen Intelligenz (KI)-Wirtschaft.
Der US-Senat hat kürzlich die Gesetzesvorlage „GAIN AI“ im Rahmen des National Defense Authorization Act (NDAA) verabschiedet, die Hersteller von KI-Chips wie Nvidia und AMD dazu verpflichten soll, Chipbestellungen von amerikanischen Unternehmen priorisieren, anstatt sie zu exportieren, insbesondere nach China und dessen Verbündeten.
Hinweis des Herausgebers: Dieser Artikel wurde von Bart Willemsen und Penny Gillespie, VP-Analysten bei Gartner, gemeinsam verfasst.
Der Microsoft Advertising Blog veröffentlichte kürzlich einen Beitrag darüber, wie man Inhalte für KI-basierte Suchantworten optimiert.
Trupeer ist ein in den USA ansässiges Technologieunternehmen, das sich auf fortschrittliche Künstliche Intelligenz (KI)-Software spezialisiert hat, die die Erstellung von Geschäftsvideos und Dokumentationen automatisiert.
Adobe hat eine neue Suite von KI-Agenten vorgestellt, die speziell für den komplexen Business-to-Business (B2B)-Markt entwickelt wurden, um die Art und Weise zu vereinfachen, wie Unternehmen an andere Organisationen verkaufen.
Automate Marketing, Sales, SMM & SEO
and get clients on autopilot — from social media and search engines. No ads needed
and get clients today