Die Rolle und Eigentümerschaft großer Sprachmodelle in der historischen Forschung

Große Sprachmodelle (LLMs) haben sich schnell zu einem integralen Bestandteil der historischen Forschung entwickelt. Ihre Fähigkeit, Texte zu verarbeiten, zu annotieren und zu generieren, verändert die wissenschaftlichen Arbeitsabläufe grundlegend. Doch Historikerinnen und Historiker sind in einer einzigartigen Position, um eine tiefgreifendere Frage zu stellen: Wem gehören die Werkzeuge, die unser Verständnis von Geschichte beeinflussen? Die meisten der heute leistungsstärksten LLMs werden von privaten Unternehmen entwickelt. Obwohl diese Unternehmen umfangreiche Investitionen tätigen, stehen ihre Ziele—Fokus auf Gewinn, Plattformausbau oder Kontrolle über geistiges Eigentum—oft im Widerspruch zu den Kernwerten der historischen Wissenschaft: Transparenz, Reproduzierbarkeit, Zugänglichkeit und kulturelle Vielfalt. Diese Situation wirft ernsthafte Fragen auf, insbesondere hinsichtlich a) Intransparenz: Wir haben häufig keine klare Übersicht über die Trainingsdaten und mögliche Verzerrungen, b) Instabilität: Zugangs- und Funktionsbedingungen können sich ohne Vorwarnung ändern, und c) Ungleichheit: Viele Forscherinnen und Forscher, vor allem in ressourcenarmen Umgebungen, sind ausgeschlossen. Es ist unerlässlich, öffentliche, frei zugängliche LLMs für die Geisteswissenschaften zu entwickeln, die auf sorgfältig kuratierten, mehrsprachigen, historisch fundierten Korpora basieren, die aus Bibliotheken, Museen und Archiven stammen. Diese Modelle müssen transparent sein, den wissenschaftlichen Gemeinschaften Verantwortlichkeit gegenüber zeigen und durch öffentliche Gelder unterstützt werden. Der Aufbau einer solchen Infrastruktur ist herausfordernd, aber unerlässlich.
So wie nationale Archive oder Bildungscurricula nicht an private Unternehmen ausgelagert werden sollten, gilt dies auch für unsere leistungsstärksten interpretativen Technologien. Die Geisteswissenschaften tragen sowohl Verantwortung als auch Chance, kulturell informierte und wissenschaftlich rigorose künstliche Intelligenz zu entwickeln. Wir dürfen LLMs nicht nur verantwortungsvoll nutzen, sondern müssen sie auch verantwortungsvoll in Besitz nehmen. Die Integrität der Wissenschaft und die Zukunft des öffentlichen Wissens könnten davon abhängen. Prof. Dr. Matteo Valleriani Max-Planck-Institut für Wissenschaftsgeschichte, Berlin, Deutschland Wenn Sie eine Meinung zu einem Thema haben, das Sie heute in der Guardian gelesen haben, schicken Sie bitte Ihren Brief an unsere Leserbrief-Seite.
Brief news summary
Große Sprachmodelle (Large Language Models, LLMs) revolutionieren die historische Forschung, indem sie fortschrittliche Textanalyse und -generierung ermöglichen. Doch die meisten bekannten LLMs werden von profitorientierten Unternehmen entwickelt, was im Widerspruch zu wissenschaftlichen Werten wie Transparenz, Reproduzierbarkeit, Zugänglichkeit und kultureller Vielfalt steht. Diese Situation führt zu Herausforderungen wie undurchsichtigen Trainingsdaten, inhärenten Verzerrungen, instabilen Zugängen und der Ausschließung von Forschern mit begrenzten Mitteln. Um diese Hürden zu überwinden, benötigen die Geisteswissenschaften dringend öffentlich finanzierte, frei zugängliche LLMs, die auf sorgfältig kuratierten, mehrsprachigen und historisch fundierten Datensätzen aus Bibliotheken, Museen und Archiven basieren. Solche Modelle sollten Transparenz und Verantwortlichkeit gegenüber wissenschaftlichen Gemeinschaften in den Vordergrund stellen. Die Abhängigkeit von proprietären KI-Tools droht die wissenschaftliche Integrität und die Bewahrung öffentlichen Wissens zu gefährden. Daher liegt es in der Verantwortung und Chance der Geisteswissenschaften, kulturell sensible und akademisch strenge KI-Tools zu entwickeln, die verantwortungsbewussten Umgang und nachhaltige Nutzung von LLMs fördern und dadurch die historische Forschung voranbringen.
AI-powered Lead Generation in Social Media
and Search Engines
Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment
Learn how AI can help your business.
Let’s talk!

Ende der Food-Lügen: Blockchain könnte revolution…
Eine zunehmende Zahl von Experten warnt, dass Lebensmittelbetrug still und heimlich jährlich bis zu 50 Milliarden Dollar aus der globalen Lebensmittelbranche abzieht und dabei auch erhebliche Gesundheitsrisiken für die Verbraucher darstellt.

Anthropics CEO kritisiert vorgeschlagenes zehnjäh…
In einem kürzlichen Meinungsartikel der New York Times äußerte Dario Amodei, CEO von Anthropic, Bedenken hinsichtlich eines von Republikanern unterstützten Vorschlags, ein zehnjähriges Verbot für die Regulierung von KI auf Bundes- und Landesebene durchzusetzen.

Berater steht vor Gerichtsverfahren wegen KI-gene…
Der Prozess gegen Steven Kramer in New Hampshire hat beträchtliche Aufmerksamkeit auf sich gezogen, da die Bedenken hinsichtlich der Rolle künstlicher Intelligenz (KI) in politischen Prozessen wachsen.

Von Tonplättchen zu Krypto: Neuüberdenken des Gel…
Wenn Geld nicht Münzen, Scheine oder sogar Kryptowährungen sind, was definiert es dann wirklich? Diese Frage steht im Mittelpunkt der aktuellen Folge des The Clear Crypto Podcasts, in der Gastgeber Nathan Jeffay (StarkWare) und Adrian Blust (Tonal Media) Bill Maurer interviewen, Dekan der UC Irvine School of Social Sciences und führender Anthropologe, der sich auf Finanzen spezialisiert hat.

The New York Times schließt Lizenzvereinbarung fü…
Die New York Times hat eine mehrjährige Lizenzvereinbarung mit Amazon getroffen, was einen wichtigen Meilenstein darstellt, da es sich um den ersten solchen Deal dieser Art zwischen der Zeitung und einem Unternehmen für künstliche Intelligenz handelt.

Ein blockchain-basiertes Deep-Learning-Framework …
E-Learning hat eine bedeutende Transformation durchlaufen, die besonders während Krisen wie der COVID-19-Pandemie deutlich wurde, als es weltweit unverzichtbar wurde.

KI im Gesundheitswesen: Verbesserung der Diagnost…
Maschinelle Lernalgorithmen verändern das Gesundheitswesen, indem sie die Diagnosegenauigkeit erheblich verbessern.