lang icon English
Nov. 11, 2025, 1:23 p.m.
234

Public Citizen fordert von OpenAI die Rücknahme der Deepfake-App Sora 2 wegen Risiken für Demokratie und Sicherheit

Brief news summary

Public Citizen, eine bedeutende Wächterorganisation, hat OpenAI aufgefordert, seine KI-gestützte Video-App Sora 2 sofort zurückzuziehen und damit große Bedenken hinsichtlich der Gefahren der Deepfake-Technologie für Demokratie, individuelle Rechte und öffentliche Sicherheit zum Ausdruck gebracht. Die Organisation kritisiert OpenAI dafür, die App ohne ausreichende Sicherheitsmaßnahmen gestartet zu haben, und weist darauf hin, dass Sora 2 den Nutzern ermöglicht, nicht einvernehmliche Deepfake-Videos zu erstellen und zu teilen, die Personen belästigen, Fehlinformationen verbreiten und die Realität verzerren können – was oft schnell viral auf sozialen Medien wie TikTok und Instagram geht. Während OpenAI einige Schutzmaßnahmen wie Inhaltsblockaden und Branchenpartnerschaften eingeführt hat, argumentieren Kritiker, dass diese eher reaktive als proaktive Lösungen sind. Public Citizen warnt, dass die Einführung generativer KI ohne strenge Aufsicht Datenschutz, Wahrheit und demokratische Stabilität bedroht. OpenAI gibt an, mit Stakeholdern, insbesondere im kreativen Sektor in Japan, zusammenzuarbeiten, um den Schutz zu verbessern. Die Organisation fordert Entwickler von KI, Politiker und die Gesellschaft auf, ethische Rahmenwerke zu schaffen, die das öffentliche Wohl über den Wettbewerb stellen, und betont die dringende Notwendigkeit, das schnelle technische Innovationstempo mit dem Schutz gesellschaftlicher Interessen im Zuge der KI-Ausweitung auszubalancieren.

Public Citizen, eine bekannte Wachhund-Organisation, die sich dem Schutz öffentlicher Interessen widmet, hat OpenAI aufgefordert, ihre KI-gesteuerte Videounter app Sora 2 sofort zurückzuziehen, da diese erhebliche Risiken durch Deepfake-Technologie birgt. Die Gruppe hebt die Gefahren für Demokratie, Persönlichkeitsrechte und öffentliche Sicherheit hervor, angesichts wachsender Bedenken über KI-generierte Videos, die die Realität manipulieren und Fehlinformationen in sozialen Medien verbreiten. Laut Public Citizen wurde die hastige Veröffentlichung von Sora 2 durch OpenAI vor allem durch Wettbewerb im Bereich Künstliche Intelligenz getrieben, was zu unzureichenden Sicherheitsmaßnahmen vor dem öffentlichen Start führte. Dadurch konnte Sora 2 die Erstellung und Verbreitung von nicht einvernehmlich produzierten Deepfake-Videos erleichtern, von denen viele verstörende Inhalte enthalten, die benutzt werden, um Frauen zu belästigen und Ereignisse zu fälschen, was emotionalen und rufschädigenden Schaden verursacht. Die App, die es Nutzern ermöglicht, KI-gesteuerte Videoclips zu erstellen, hat sich rasch auf Plattformen wie TikTok und Instagram verbreitet. Ihre Inhalte reichen von bizarren, übertriebenen Darstellungen von Prominenten bis hin zu realistischen, aber irreführenden Szenarien, die die öffentliche Wahrnehmung verzerren könnten. Public Citizen betont, dass die Fähigkeit der Technologie, überzeugende, aber falsche Aufnahmen zu produzieren, ernsthafte Risiken birgt, besonders wenn diese Videos ohne Kontext oder Überprüfung verbreitet werden. Während OpenAI versucht hat, einige Bedenken auszuräumen – etwa durch das Blockieren bestimmter Darstellungen, zum Beispiel von Martin Luther King Jr. , und durch die Zusammenarbeit mit Branchenverbänden wie SAG-AFTRA – argumentieren Kritiker, dass diese Bemühungen reaktiv anstatt proaktiv seien. Public Citizen ist der Ansicht, dass OpenAI hauptsächlich auf öffentliche Empörung reagiert, anstatt von Anfang an ethische Kontrollmechanismen zu etablieren. Dies ist nicht die erste Kontroverse von OpenAI im Zusammenhang mit KI-bedingten Schäden.

Die Plattform ChatGPT wurde bereits mit Klagen konfrontiert, die psychische Schäden, Fahrlässigkeit und unzureichenden Schutz vor Missbrauch geltend machen. Public Citizen warnt, dass die Freigabe generativer KI-Werkzeuge ohne gründliche Aufsicht diese Probleme verschärft, was das Vertrauen in digitale Medien und demokratische Institutionen gefährdet. OpenAI hat nur begrenzte öffentliche Stellungnahmen bezüglich Sora 2 abgegeben, in denen das Unternehmen erklärt, dass es mit Content-Erstellern, Filmstudios und Rechteinhabern zusammenarbeite, um den Schutz zu verbessern und Missbrauchsmöglichkeiten zu minimieren. Zudem arbeitet das Unternehmen mit Stakeholdern aus der japanischen Kreativbranche zusammen, die sich Sorgen über den Einfluss von KI auf künstlerische Rechte und geistiges Eigentum machen. Public Citizen betont, dass die schnelle und unregulierte Einführung generativer KI-Apps wie Sora 2 den Schutz der Privatsphäre, die faktische Integrität und die demokratische Stabilität untergräbt. Ihre Forderung, die App zu entfernen, ist Teil eines breiteren Aufrufs an die KI-Branche, das Wohlergehen der Öffentlichkeit über den Marktwettbewerb zu stellen. Sie appellieren an Politiker, Entwickler und zivilgesellschaftliche Organisationen, gemeinsam umfassende, ethische Rahmenwerke zu entwickeln, die eine verantwortungsvolle Entwicklung und Nutzung von KI sicherstellen. Während die KI-Technologie voranschreitet und zunehmend in die Gesellschaft integriert wird, unterstreichen die Warnungen von Public Citizen die entscheidenden Herausforderungen und Verantwortlichkeiten beim Einsatz solch transformativer Werkzeuge. Innovation mit Schutz der öffentlichen Interessen in Einklang zu bringen, ist unerlässlich, da die Komplexität und die Folgen von KI-generierten Inhalten immer weiter zunehmen.


Watch video about

Public Citizen fordert von OpenAI die Rücknahme der Deepfake-App Sora 2 wegen Risiken für Demokratie und Sicherheit

Try our premium solution and start getting clients — at no cost to you

I'm your Content Creator.
Let’s make a post or video and publish it on any social media — ready?

Language

Hot news

Nov. 11, 2025, 1:18 p.m.

Von SEO zu GEO: Wie große Sprachmodelle die Marke…

Diese Folge des Marketing AI SparkCast präsentiert Aby Varma, Gründer von Spark Novus, einem strategischen Partner, der Marketingleitern dabei hilft, KI verantwortungsvoll zu nutzen.

Nov. 11, 2025, 1:13 p.m.

Jetzt nutzen 100 % der Revenue-Teams GenAI; 51 % …

Der Allego-Bericht „AI in Revenue Enablement 2025“ enthüllt eine bahnbrechende Erkenntnis bezüglich des Einsatzes von künstlicher Intelligenz in globalen Vertriebsteams.

Nov. 11, 2025, 1:13 p.m.

IPG übertrifft die Q3-Erwartungen dank KI-Integra…

Interpublic Group (IPG), eine führende globale Marketing- und Werbefirma, kündigte im dritten Quartal Ergebnisse an, die die Erwartungen übertrafen, hauptsächlich getrieben durch starke Werbeausgaben im Medien- und Gesundheitssektor.

Nov. 11, 2025, 1:13 p.m.

Dappier startet AI-Datenmarktplatz und interaktiv…

Dappier, ein innovatives amerikanisches Softwareunternehmen mit Hauptsitz in Austin, Texas, macht bedeutende Fortschritte im Bereich der künstlichen Intelligenz, indem es anspruchsvolle Softwarelösungen anbietet, die für die Erstellung von KI-Schnittstellen für Verbraucher entwickelt wurden.

Nov. 11, 2025, 9:49 a.m.

Oracles KI-gestützte Cloud-Dienste gewinnen an Fa…

Oracles KI-gestützte Cloud-Dienste gewinnen rasch an Beliebtheit, da Unternehmen versuchen, fortschrittliche KI-Technologien zu nutzen, um Datenanalyse und Entscheidungsprozesse zu verbessern.

Nov. 11, 2025, 9:20 a.m.

TSMC verzeichnet langsamstes Wachstum in 18 Monat…

Taiwan Semiconductor Manufacturing Co.

Nov. 11, 2025, 9:18 a.m.

KI-Inhaltsrevolution: Automatisierung gestaltet M…

Die Marketingbranche befindet sich in einem tiefgreifenden Wandel, der durch die weitverbreitete Nutzung von Künstlicher Intelligenz (KI)-Technologien vorangetrieben wird.

All news

AI Company

Launch your AI-powered team to automate Marketing, Sales & Growth

and get clients on autopilot — from social media and search engines. No ads needed

Begin getting your first leads today