Il ruolo e la proprietà dei grandi modelli linguistici nella ricerca storica
Brief news summary
I grandi modelli linguistici (LLMs) stanno rivoluzionando la ricerca storica, consentendo analisi e generazioni di testi avanzate. Tuttavia, la maggior parte dei principali LLMs è creata da aziende a scopo di lucro, in contrasto con i valori accademici come trasparenza, riproducibilità, accessibilità e diversità culturale. Questa situazione porta a sfide quali dati di training opachi, pregiudizi insiti, accesso instabile e l’esclusione di ricercatori con risorse limitate. Per superare questi ostacoli, le scienze umanistiche hanno urgentemente bisogno di LLMs pubblicamente finanziati e open access, basati su dataset curati con attenzione, multilingue e storicamente fondati, provenienti da biblioteche, musei e archivi. Tali modelli dovrebbero mettere in primo piano la trasparenza e la responsabilità verso le comunità accademiche. Affidarsi a strumenti di intelligenza artificiale proprietari mette a rischio l’integrità accademica e la conservazione del sapere pubblico. Di conseguenza, le scienze umanistiche hanno sia una responsabilità che un’opportunità di sviluppare strumenti di intelligenza artificiale culturalmente sensibili e accademicamente rigorosi, che favoriscano un uso responsabile e una gestione etica degli LLMs, contribuendo così all’avanzamento della ricerca storica.I modelli di linguaggio di grandi dimensioni (LLMs) sono rapidamente diventati parte integrante della ricerca storica. La loro capacità di elaborare, annotare e generare testi sta rimodellando i flussi di lavoro accademici. Tuttavia, gli storici sono in una posizione unica per porre una domanda più profonda: chi possiede gli strumenti che influenzano la nostra comprensione della storia? La maggior parte dei più potenti LLM attualmente esistenti sono creati da aziende private. Sebbene queste aziende investano molto, i loro obiettivi — centrati sul profitto, sull'espansione delle piattaforme o sul controllo della proprietà intellettuale — spesso entrano in conflitto con i valori fondamentali della ricerca storica: trasparenza, riproducibilità, accessibilità e diversità culturale. Questa situazione solleva seri interrogativi su a) opacità: spesso manca chiarezza sui dati di addestramento e sui bias insiti, b) instabilità: i termini di accesso e le funzionalità possono cambiare senza preavviso, e c) disuguaglianza: molti ricercatori, soprattutto in ambienti con risorse limitate, sono esclusi. È imperativo sviluppare LLM pubblici, a accesso aperto, per le discipline umanistiche, addestrati su corpora curati con attenzione, multilingue, radicati nella storia e provenienti da biblioteche, musei e archivi. Questi modelli devono essere trasparenti, responsabili delle comunità accademiche e sostenuti da fondi pubblici. Creare tale infrastruttura è una sfida ma è essenziale.
Proprio come gli archivi nazionali o i curricula scolastici non verrebbero affidati a aziende private, allo stesso modo anche le nostre tecnologie interpretative più potenti non dovrebbero esserlo. Le discipline umanistiche hanno sia una responsabilità che un’opportunità di sviluppare intelligenze artificiali culturalmente informate e accademicamente rigorose. Non dobbiamo solo usare gli LLM in modo responsabile, ma anche assumerci la responsabilità di possederli. L’integrità della ricerca e il futuro del sapere pubblico potrebbero dipendere da ciò. Prof. Dott. Matteo Valleriani Istituto Max Planck per la Storia della Scienza, Berlino, Germania Se hai un’opinione su qualsiasi articolo letto oggi sul Guardian, ti invitiamo a inviare la tua lettera per essere valutata nella nostra sezione delle lettere.
Watch video about
Il ruolo e la proprietà dei grandi modelli linguistici nella ricerca storica
Try our premium solution and start getting clients — at no cost to you