lang icon En
March 21, 2026, 10:28 a.m.
1254

Eric Schmidts umstrittene Ratschläge zur KI-Ethik lösen Debatte über Urheberrecht und Fair Use im Silicon Valley aus

Brief news summary

Im April 2024 riet der ehemalige Google-CEO Eric Schmidt den Studierenden an der Stanford University, die Silicon-Valley-Startups gründen, sich darauf vorzubereiten, ethische Grenzen zu überschreiten, insbesondere bei der Entwicklung von Künstlicher Intelligenz. Dieser Rat kommt zu einer Zeit, in der 19 Klagen gegen generative KI-Unternehmen wie OpenAI und Anthropic wegen angeblicher Urheberrechtsverletzungen laufen, da sie KI-Modelle auf urheberrechtlich geschützte Bücher und Medien trainierten, ohne die Erlaubnis einzuholen. Schmidt empfahl, zunächst KI-Prototypen zu entwickeln, indem große Datensätze heruntergeladen werden, und erst nach Erfolg rechtlichen Rat einzuholen. Dabei hob er hervor, dass im Silicon Valley Innovation oft Vorrang vor strikter Einhaltung des Urheberrechts hat. Diese KI-Unternehmen berufen sich auf das Konzept des „Fair Use“, um ihre Datenpraktiken zu rechtfertigen, gleichzeitig aber schränken sie die Nutzung von KI-generierten Inhalten stark ein – was einen Doppelstandard offenbart. Interne Unternehmensdokumente zeigen, dass man sich der Ablehnung seitens der Schöpfer bewusst ist, und dass Vorschläge für Gewinnbeteiligungen abgelehnt wurden. Kritiker argumentieren, dass das Training von KI unrechtmäßig urheberrechtlich geschützte Materialien ausnutzt, ohne die ursprünglichen Urheber zu entschädigen, und dabei Inhalte manchmal eng reproduziert. Stimmen aus der Branche, wie der ehemalige VP von Stability AI, Ed Newton-Rex, fordern stattdessen die Nutzung lizenzierter Daten. Währenddessen schützen große Tech-Firmen ihre Software-Urheberrechte rigoros, ignorieren aber den Schutz für Künstler, deren Werke die KI-Entwicklung ermöglichen. Insgesamt prägt die Kultur im Silicon Valley eine schnelle Innovationshaltung, die häufig auf Kosten ethischer und rechtlicher Normen geht.

Im April 2024 hielt der frühere Google-CEO und KI-Befürworter Eric Schmidt eine private Vorlesung an der Stanford University, in der er angehende Unternehmer im Silicon Valley aufforderte, bereit zu sein, ethische Grenzen zu überschreiten. Trotz 19 Klagen gegen generative KI-Firmen wie Anthropic und OpenAI wegen Urheberrechtsverletzungen durch gestohlene Bücher und Medien, die zum Trainieren von KI-Modellen verwendet wurden, riet Schmidt den Studierenden dazu, Inhalte frei herunterzuladen, um Prototypen zu erstellen, und meinte, rechtliche Probleme könnten später gelöst werden, wenn das Produkt erfolgreich sei. Stanford veröffentlichte die Vorlesung im August 2024 kurzzeitig auf YouTube, entfernte sie aber am nächsten Tag ohne Kommentar. Schmidts offene Haltung spiegelt eine verbreitete Einstellung im Silicon Valley wider, die häufig durch rechtliche oder philosophische Argumente verschleiert wird. Sein Sprecher zitierte Schmidt mit der Überzeugung, „Fair Use“ sei ein Treiber für Innovation, was den techno-libertären Slogan „Information wants to be free“ widerspiegelt – eine Vorstellung, die Information als Ressource begreift, die ungehindert fließen sollte. Dieses Prinzip gilt jedoch kaum für die eigentumsrechtlich geschützten Informationen des Silicon Valleys – personenbezogenen Daten und Software –, die stark geschützt sind. Software wie Photoshop und Erfindungen wie Googles Suchalgorithmus oder Apples iPhone-Design sind patentiert und werden von hochqualifizierten Rechtsteams verteidigt. Die Tech-Branche ist häufig in hochkarätige IP-Kämpfe verwickelt: Waymo einigte sich auf 245 Millionen Dollar in einem Rechtsstreit mit Uber wegen gestohlener Geheimnisse zu selbstfahrenden Autos, Apple gewann über eine Milliarde Dollar von Samsung in einem siebjährigen Patentstreit, und Apple sowie Qualcomm verklagen sich weltweit wiederholt gegenseitig. Im Wettlauf um die Entwicklung generativer KI haben Unternehmen gezielt weniger vorbereitete Branchen ins Visier genommen, indem sie KI auf riesigen Datensätzen trainieren, die oft urheberrechtlich geschützte Inhalte enthalten. Die Rechtfertigungen unterscheiden sich dabei: OpenAI behauptet, nur öffentlich zugängliche Daten zu verwenden; Anthropic sagt, es nutzt Bücher, aber nicht kommerziell; Meta gibt zu, kommerziell genutzte Bücher zu verwenden, nennt dies aber „quintessential fair use“. Dennoch lehnen diese Unternehmen ähnlich lautende Fair-Use-Ansprüche ab, wenn es darum geht, ihre eigenen Werke zu schützen. OpenAI verbietet Nutzern, konkurrierende Modelle auf ChatGPT-Ausgaben zu trainieren; Anthropic, Google und xAI haben ähnliche Regeln – im Wesentlichen „Wir dürfen auf eure Werke trainieren, aber ihr dürft nicht auf unsere. “ Obwohl Marktdruck diese eigennützigen Standards erklärt, sind die Widersprüche zwischen Handlungen und deklarierten Werten deutlich sichtbar.

Meta beispielsweise nennt seine Modelle „offen“, verhindert aber Online-Kopien und verlangt deren Entfernung – ein Ansatz, der im Widerspruch zur typischen Offenheit im Open-Source-Bereich steht. Der Wert der Trainingsdaten ist unstrittig: 2021 schrieb Anthropic-CEO Dario Amodei darüber, Datenproduzenten durch Gewinnanteile oder Beteiligungen zu entschädigen, um Gegenreaktionen der Schöpfer zu vermeiden, die das KI-Wachstum bremsen könnten. Heute jedoch behauptet Anthropic, urheberrechtlich geschützte Werke seien Fair Use, was den Schöpfern nichts zuspricht, und kommentierte die Diskrepanz nicht. Firmen argumentieren, KI-Ausgaben seien original, nicht abgeleitet von Trainingsdaten, doch Berichte zeigen, dass Chatbots und Bilderzeuger nahezu exakte Kopien von Werken wie Harry Potter oder bestehenden Kunstwerken reproduzieren können. Die Unternehmen haben diese Probleme heruntergespielt und sogar geopolitische „KI-Rennen“-Bedenken herangezogen, um weite Fair-Use-Ansprüche zu rechtfertigen – OpenAI warnte, dass die USA im KI-Wettbewerb verlieren würden, wenn sie keinen solchen Zugang gewähren. Nicht alle Insider stimmen zu. Ed Newton-Rex, ehemaliger VP bei Stability AI, trat Ende 2023 zurück und kritisierte die aktuelle KI-Schulung als inkompatibel mit etablierten urheberrechtsbasierten Kreativwirtschaften. Er gründete Fairly Trained, das KI-Modelle zertifizieren soll, die auf richtig lizenzierten Daten basieren. Gleichzeitig hat Silicon Valley jahrelang unter IP-Diebstahl durch Softwarepiraterie gelitten, was dazu führte, dass Unternehmen ihre Vertriebsmodelle änderten: Adobe und Microsoft verlangen jetzt ein Abonnement mit Lizenzprüfung, und Google bietet keine Downloads mehr an. Diese Methoden schützen das geistige Eigentum, sind aber vielen Schöpfern verwehrt, deren Werke von KI-Unternehmen ausgenutzt werden. Dieses doppelte Maß wirft Zweifel an den Behauptungen des Silicon Valley zum Fair Use auf – sind sie echte Prinzipien oder nur rechtlicher Schein?Generative KI stellt tatsächlich neue Fragen zum Urheberrecht, doch die aggressive Herangehensweise der Branche – schnelles Vorgehen, Dinge zerbrechen lassen und auf Anwälte vertrauen, um Probleme zu lösen – spiegelt längst etablierte Geschäftsgewohnheiten im Silicon Valley wider, anstatt prinzipielle Innovation.


Watch video about

Eric Schmidts umstrittene Ratschläge zur KI-Ethik lösen Debatte über Urheberrecht und Fair Use im Silicon Valley aus

Try our premium solution and start getting clients — at no cost to you

Content creator image

I'm your Content Creator.
Let’s make a post or video and publish it on any social media — ready?

Language

Hot news

April 4, 2026, 10:27 a.m.

Bidview Marketing's Cameron LiButti spricht über …

In den letzten Jahren hat sich das Gebiet der Suchmaschinenoptimierung (SEO) erheblich gewandelt, insbesondere durch die rasanten Fortschritte im Bereich der künstlichen Intelligenz (KI).

April 4, 2026, 10:26 a.m.

Smmwiz.com wurde als die führende SMM-Panel-Infra…

Bis 2026 gilt Social Media als eines der wettbewerbsfähigsten und leistungsorientiertesten digitalen Arenen.

April 4, 2026, 10:22 a.m.

Perplexity AI sieht sich einer Sammelklage wegen …

Perplexity AI sieht sich einer vorgeschlagenen Sammelklage gegenüber, die beim US-Bezirksgericht für den nördlichen Bezirk Kalifornien in San Francisco eingereicht wurde.

April 4, 2026, 10:18 a.m.

OpenAI und Anthropic erweitern Vertriebsteams ang…

OpenAI hat sein Enterprise-Vertriebsteam innerhalb von weniger als zwei Jahren drastisch von 10 auf 500 Mitarbeiter erweitert, und Anthropic zog rasch nach, wobei sie bis 2026 einen Umsatz zwischen 20 und 26 Milliarden Dollar anpeilen.

April 4, 2026, 6:28 a.m.

Z.ai geht an die Börse in Hongkong

Z.ai, früher bekannt als Zhipu AI, hat einen bedeutenden Meilenstein erreicht, indem es das erste weltweit auffällige Unternehmen für große Sprachmodelle (Large Language Models, LLMs) aus China wurde, das öffentlich an der Hongkonger Börse gelistet ist.

April 4, 2026, 6:15 a.m.

Gartner prognostiziert, dass KI-gesteuerte Vertri…

Eine aktuelle Studie von Gartner, Inc., einem führenden Unternehmen für Geschäfts- und Technologieforschung, zeigt, dass Vertriebsorganisationen, die KI-gesteuerte Enablement-Funktionen einsetzen, ihre Vertriebsprozesse deutlich beschleunigen werden.

April 4, 2026, 6:15 a.m.

Google testet KI-generierte Überschriftenumformul…

Google hat kürzlich bestätigt, dass es eine begrenzte experimentelle Testphase durchführt, bei der Künstliche Intelligenz (KI) eingesetzt wird, um umgeschriebene Überschriften für herkömmliche Suchergebnisse zu erstellen.

All news

AI Company

Launch your AI-powered team to automate Marketing, Sales & Growth

AI Company welcome image

and get clients on autopilot — from social media and search engines. No ads needed

Begin getting your first leads today