Eric Schmidts umstrittene Ratschläge zur KI-Ethik lösen Debatte über Urheberrecht und Fair Use im Silicon Valley aus
Brief news summary
Im April 2024 riet der ehemalige Google-CEO Eric Schmidt den Studierenden an der Stanford University, die Silicon-Valley-Startups gründen, sich darauf vorzubereiten, ethische Grenzen zu überschreiten, insbesondere bei der Entwicklung von Künstlicher Intelligenz. Dieser Rat kommt zu einer Zeit, in der 19 Klagen gegen generative KI-Unternehmen wie OpenAI und Anthropic wegen angeblicher Urheberrechtsverletzungen laufen, da sie KI-Modelle auf urheberrechtlich geschützte Bücher und Medien trainierten, ohne die Erlaubnis einzuholen. Schmidt empfahl, zunächst KI-Prototypen zu entwickeln, indem große Datensätze heruntergeladen werden, und erst nach Erfolg rechtlichen Rat einzuholen. Dabei hob er hervor, dass im Silicon Valley Innovation oft Vorrang vor strikter Einhaltung des Urheberrechts hat. Diese KI-Unternehmen berufen sich auf das Konzept des „Fair Use“, um ihre Datenpraktiken zu rechtfertigen, gleichzeitig aber schränken sie die Nutzung von KI-generierten Inhalten stark ein – was einen Doppelstandard offenbart. Interne Unternehmensdokumente zeigen, dass man sich der Ablehnung seitens der Schöpfer bewusst ist, und dass Vorschläge für Gewinnbeteiligungen abgelehnt wurden. Kritiker argumentieren, dass das Training von KI unrechtmäßig urheberrechtlich geschützte Materialien ausnutzt, ohne die ursprünglichen Urheber zu entschädigen, und dabei Inhalte manchmal eng reproduziert. Stimmen aus der Branche, wie der ehemalige VP von Stability AI, Ed Newton-Rex, fordern stattdessen die Nutzung lizenzierter Daten. Währenddessen schützen große Tech-Firmen ihre Software-Urheberrechte rigoros, ignorieren aber den Schutz für Künstler, deren Werke die KI-Entwicklung ermöglichen. Insgesamt prägt die Kultur im Silicon Valley eine schnelle Innovationshaltung, die häufig auf Kosten ethischer und rechtlicher Normen geht.Im April 2024 hielt der frühere Google-CEO und KI-Befürworter Eric Schmidt eine private Vorlesung an der Stanford University, in der er angehende Unternehmer im Silicon Valley aufforderte, bereit zu sein, ethische Grenzen zu überschreiten. Trotz 19 Klagen gegen generative KI-Firmen wie Anthropic und OpenAI wegen Urheberrechtsverletzungen durch gestohlene Bücher und Medien, die zum Trainieren von KI-Modellen verwendet wurden, riet Schmidt den Studierenden dazu, Inhalte frei herunterzuladen, um Prototypen zu erstellen, und meinte, rechtliche Probleme könnten später gelöst werden, wenn das Produkt erfolgreich sei. Stanford veröffentlichte die Vorlesung im August 2024 kurzzeitig auf YouTube, entfernte sie aber am nächsten Tag ohne Kommentar. Schmidts offene Haltung spiegelt eine verbreitete Einstellung im Silicon Valley wider, die häufig durch rechtliche oder philosophische Argumente verschleiert wird. Sein Sprecher zitierte Schmidt mit der Überzeugung, „Fair Use“ sei ein Treiber für Innovation, was den techno-libertären Slogan „Information wants to be free“ widerspiegelt – eine Vorstellung, die Information als Ressource begreift, die ungehindert fließen sollte. Dieses Prinzip gilt jedoch kaum für die eigentumsrechtlich geschützten Informationen des Silicon Valleys – personenbezogenen Daten und Software –, die stark geschützt sind. Software wie Photoshop und Erfindungen wie Googles Suchalgorithmus oder Apples iPhone-Design sind patentiert und werden von hochqualifizierten Rechtsteams verteidigt. Die Tech-Branche ist häufig in hochkarätige IP-Kämpfe verwickelt: Waymo einigte sich auf 245 Millionen Dollar in einem Rechtsstreit mit Uber wegen gestohlener Geheimnisse zu selbstfahrenden Autos, Apple gewann über eine Milliarde Dollar von Samsung in einem siebjährigen Patentstreit, und Apple sowie Qualcomm verklagen sich weltweit wiederholt gegenseitig. Im Wettlauf um die Entwicklung generativer KI haben Unternehmen gezielt weniger vorbereitete Branchen ins Visier genommen, indem sie KI auf riesigen Datensätzen trainieren, die oft urheberrechtlich geschützte Inhalte enthalten. Die Rechtfertigungen unterscheiden sich dabei: OpenAI behauptet, nur öffentlich zugängliche Daten zu verwenden; Anthropic sagt, es nutzt Bücher, aber nicht kommerziell; Meta gibt zu, kommerziell genutzte Bücher zu verwenden, nennt dies aber „quintessential fair use“. Dennoch lehnen diese Unternehmen ähnlich lautende Fair-Use-Ansprüche ab, wenn es darum geht, ihre eigenen Werke zu schützen. OpenAI verbietet Nutzern, konkurrierende Modelle auf ChatGPT-Ausgaben zu trainieren; Anthropic, Google und xAI haben ähnliche Regeln – im Wesentlichen „Wir dürfen auf eure Werke trainieren, aber ihr dürft nicht auf unsere. “ Obwohl Marktdruck diese eigennützigen Standards erklärt, sind die Widersprüche zwischen Handlungen und deklarierten Werten deutlich sichtbar.
Meta beispielsweise nennt seine Modelle „offen“, verhindert aber Online-Kopien und verlangt deren Entfernung – ein Ansatz, der im Widerspruch zur typischen Offenheit im Open-Source-Bereich steht. Der Wert der Trainingsdaten ist unstrittig: 2021 schrieb Anthropic-CEO Dario Amodei darüber, Datenproduzenten durch Gewinnanteile oder Beteiligungen zu entschädigen, um Gegenreaktionen der Schöpfer zu vermeiden, die das KI-Wachstum bremsen könnten. Heute jedoch behauptet Anthropic, urheberrechtlich geschützte Werke seien Fair Use, was den Schöpfern nichts zuspricht, und kommentierte die Diskrepanz nicht. Firmen argumentieren, KI-Ausgaben seien original, nicht abgeleitet von Trainingsdaten, doch Berichte zeigen, dass Chatbots und Bilderzeuger nahezu exakte Kopien von Werken wie Harry Potter oder bestehenden Kunstwerken reproduzieren können. Die Unternehmen haben diese Probleme heruntergespielt und sogar geopolitische „KI-Rennen“-Bedenken herangezogen, um weite Fair-Use-Ansprüche zu rechtfertigen – OpenAI warnte, dass die USA im KI-Wettbewerb verlieren würden, wenn sie keinen solchen Zugang gewähren. Nicht alle Insider stimmen zu. Ed Newton-Rex, ehemaliger VP bei Stability AI, trat Ende 2023 zurück und kritisierte die aktuelle KI-Schulung als inkompatibel mit etablierten urheberrechtsbasierten Kreativwirtschaften. Er gründete Fairly Trained, das KI-Modelle zertifizieren soll, die auf richtig lizenzierten Daten basieren. Gleichzeitig hat Silicon Valley jahrelang unter IP-Diebstahl durch Softwarepiraterie gelitten, was dazu führte, dass Unternehmen ihre Vertriebsmodelle änderten: Adobe und Microsoft verlangen jetzt ein Abonnement mit Lizenzprüfung, und Google bietet keine Downloads mehr an. Diese Methoden schützen das geistige Eigentum, sind aber vielen Schöpfern verwehrt, deren Werke von KI-Unternehmen ausgenutzt werden. Dieses doppelte Maß wirft Zweifel an den Behauptungen des Silicon Valley zum Fair Use auf – sind sie echte Prinzipien oder nur rechtlicher Schein?Generative KI stellt tatsächlich neue Fragen zum Urheberrecht, doch die aggressive Herangehensweise der Branche – schnelles Vorgehen, Dinge zerbrechen lassen und auf Anwälte vertrauen, um Probleme zu lösen – spiegelt längst etablierte Geschäftsgewohnheiten im Silicon Valley wider, anstatt prinzipielle Innovation.
Watch video about
Eric Schmidts umstrittene Ratschläge zur KI-Ethik lösen Debatte über Urheberrecht und Fair Use im Silicon Valley aus
Try our premium solution and start getting clients — at no cost to you