Seit Jahren bewerteten Meta-Teams von Prüfern potenzielle Risiken bei neuen Funktionen auf Instagram, WhatsApp und Facebook. Dabei ging es um Bedenken wie Bedrohungen der Privatsphäre der Nutzer, Schaden für Minderjährige oder die Verbreitung irreführender oder toxischer Inhalte. Diese Datenschutz- und Integritätsprüfungen wurden hauptsächlich von menschlichen Gutachtern durchgeführt. Interne Dokumente, die NPR vorliegen, zeigen jedoch, dass Meta plant, diese Risikoabschätzungen bald zu automatizieren – bis zu 90 % davon sollen künftig von KI-Systemen erledigt werden. Das bedeutet, dass wichtige Algorithmus-Updates, neue Sicherheitsfunktionen und Änderungen beim Content-Sharing größtenteils ohne die übliche menschliche Überprüfung genehmigt werden, die unvorhergesehene Folgen oder Missbrauch berücksichtigt. Innerhalb von Meta gilt dieser Wandel für Produktentwickler als vorteilhaft, da er die Freigabe von Updates und Features beschleunigt. Doch aktuelle und ehemalige Mitarbeiter befürchten, dass diese Automatisierung zu einer unzureichenden Beurteilung von Risiken führen könnte, was im schlimmsten Fall reale Schäden zur Folge haben kann. Ein ehemaliger Meta-Manager äußerte Bedenken, dass schnellere Markteinführungen mit weniger strenger Überprüfung die Wahrscheinlichkeit negativer Konsequenzen erhöhen, weil weniger Probleme im Vorfeld erkannt werden. Meta erklärte, dass man Milliarden investiert habe, um die Privatsphäre der Nutzer zu schützen, und dass die neuen Änderungen bei den Risikoüberprüfungen darauf abzielen, die Entscheidungsfindung zu vereinfachen, während menschliche Fachkenntnis bei neuartigen oder komplexen Fragen erhalten bleibt. Es werde nur bei „niedrigen Risiken“ automatisiert. Internen Dokumenten zufolge könnte die Automatisierung jedoch auch auf sensitive Bereiche ausgeweitet werden, etwa KI-Sicherheit, Risiken für Jugendliche und die allgemeine Plattformintegrität, die auch gewalttätige Inhalte und Desinformation umfassen. Der neue Prozess sieht vor, dass Produktteams einen Fragebogen ausfüllen, woraufhin eine „sofortige Entscheidung“ von der KI erfolgt, die Risiken und erforderliche Gegenmaßnahmen aufzeigt. Früher mussten Risikoassessoren Produktupdates vor der Veröffentlichung genehmigen; jetzt beurteilen die Entwickler die Risiken größtenteils selbst, es sei denn, sie beantragen ausdrücklich eine menschliche Überprüfung. Dieser Wandel stärkt die Verantwortlichkeit der Entwickler und Produktteams – die oft keine Datenschutzexperten sind – bei der Risikobewertung. Dies wirft jedoch Bedenken hinsichtlich der Qualität der Einschätzungen auf. Zvika Krieger, ehemaliger Direktor für verantwortungsbewusste Innovation bei Meta, warnte, dass Produktteams vor allem auf schnelle Veröffentlichungen bewertet werden und weniger auf Sicherheit.
Selbstbeurteilungen könnten zu einem bloßen Abhaken von Checkboxes verkommen, bei dem wichtige Probleme übersehen werden. Er räumte ein, dass Automatisierung möglich ist, warnte aber, dass eine übermäßige Abhängigkeit von KI die Qualität der Überprüfung beeinträchtigen könnte. Meta relativierte die Ängste, indem es betonte, dass KI-Entscheidungen bei Projekten ohne menschliche Überprüfung auditiert werden. Die europäische Geschäftstätigkeit werde weiterhin durch strenge Vorschriften wie den Digital Services Act geregelt und von der Zentrale in Irland aus überwacht, wo menschliche Kontrolle bestehen bleibt. Einige Änderungen fallen mit Meta’s Einstellung des Faktencheckings und einer Lockerung der Hate-Speech-Politik zusammen. Das deutet auf eine breitere Unternehmenswende hin, die schnellere Updates und weniger Inhaltsbeschränkungen zum Ziel hat – eine Abkehr von langjährigen Schutzmaßnahmen, um Missbrauch der Plattform zu verhindern. Dieser Kurs folgt auch den Bemühungen von CEO Mark Zuckerberg, sich mit politischen Persönlichkeiten wie Ex-Präsident Trump anzupassen, dessen Wahl Zuckerberg als einen „kulturellen Wendepunkt“ bezeichnete. Der Druck zur Automatisierung ist auch Teil von Meta’s langjähriger Strategie, KI zu nutzen, um das operative Tempo im Wettbewerb mit TikTok, OpenAI und anderen zu erhöhen. Meta verwendet zunehmend KI, um die Inhaltsmoderation durchzusetzen, wobei Sprachmodelle zum Einsatz kommen, die in bestimmten Politikbereichen besser abschneiden als menschliche Reviewer. So können menschliche Prüfer sich auf besonders komplexe Fälle konzentrieren. Katie Harbath, eine frühere Expertin für Öffentlichkeitsarbeit bei Facebook, befürwortet den Einsatz von KI, um Geschwindigkeit und Effizienz zu steigern, betont aber zugleich die Bedeutung menschlicher Kontrollen. Eine weitere ehemalige Meta-Mitarbeiterin hingegen fragte, ob es klug ist, Risikoabschätzungen zu beschleunigen, da neue Produkte oft genau geprüft würden und dabei wichtige Aspekte zu Tage treten könnten. Michel Protti, Meta’s Datenschutzbeauftragter für Produkte, beschrieb die Änderungen als eine Stärkung der Produktteams und eine Weiterentwicklung des Risikomanagements, um Entscheidungen zu vereinfachen. Die Umsetzung der Automatisierung beschleunigte sich im April und Mai 2024. Kritiker sehen darin jedoch eine problematische Verkürzung der menschlichen Einschätzung, weil die wichtige menschliche Perspektive auf mögliche Schäden verloren gehe. Sie bezeichnen den Schritt als „verantwortungslos“ im Hinblick auf Meta’s Mission. Zusammenfassend lässt sich sagen, dass Meta den Risikoabbau von menschlicher zu überwiegend KI-gestützter Bewertung verschiebt, um Innovation zu beschleunigen. Gleichzeitig wächst intern die Sorge, dass so die Kontrolle und Überprüfung leidet, potenzielle Schäden unentdeckt bleiben und die KI die komplexen ethischen und Sicherheitsfragen nicht ausreichend handhaben kann.
Meta will automatisieren bis zu 90 % der Risikobewertungen, was Datenschutz- und Sicherheitsbedenken hervorruft
Die Walt Disney Company hat gegen Google eine bedeutende rechtliche Maßnahme eingeleitet, indem sie ein Unterlassungsschreiben verschickt hat, in dem dem Tech-Giganten vorgeworfen wird, während der Schulung und Entwicklung generativer künstlicher Intelligenz (KI) Modelle urheberrechtlich geschützte Disney-Inhalte ohne Entschädigung genutzt zu haben.
Mit dem Fortschreiten der künstlichen Intelligenz (KI) und ihrer zunehmend umfassenderen Integration in das digitale Marketing gewinnt deren Einfluss auf die Suchmaschinenoptimierung (SEO) erheblich an Bedeutung.
MiniMax und Zhipu AI, zwei führende Unternehmen im Bereich der künstlichen Intelligenz, bereiten Berichten zufolge vor, noch im Januar nächsten Jahres an die Börse der Hongkonger Börse zu gehen.
Denise Dresser, CEO von Slack, wird ihre Position aufgeben, um Chief Revenue Officer bei OpenAI zu werden, dem Unternehmen hinter ChatGPT.
Die Filmindustrie erlebt eine große Transformation, da Studios zunehmend künstliche Intelligenz (KI) und Video-Synthesetechniken einsetzen, um die Nachbearbeitungsprozesse zu verbessern.
KI revolutioniert das Social-Media-Marketing, indem es Werkzeuge bietet, die die Einbindung des Publikums vereinfachen und verbessern.
Das Aufkommen von AI-generierten Influencern in den sozialen Medien markiert einen bedeutenden Wandel in der digitalen Welt und löst landesweite Debatten über die Authentizität online stattfindende Interaktionen sowie die ethischen Bedenken im Zusammenhang mit diesen virtuellen Persönlichkeiten aus.
Launch your AI-powered team to automate Marketing, Sales & Growth
and get clients on autopilot — from social media and search engines. No ads needed
Begin getting your first leads today