lang icon En
March 21, 2026, 10:28 a.m.
694

Il controverso consiglio di Eric Schmidt sull'etica dell'IA scatena un dibattito sul copyright e l'uso lecito a Silicon Valley

Brief news summary

Ad aprile 2024, l'ex CEO di Google Eric Schmidt ha consigliato agli studenti di Stanford che avviano startup nello Silicon Valley di essere pronti a superare i limiti etici, in particolare nello sviluppo dell'IA. Questo consiglio arriva in un contesto di 19 cause legali contro aziende di intelligenza artificiale generativa come OpenAI e Anthropic, accusate di violazione del copyright perché hanno addestrato modelli di IA su libri e media protetti senza autorizzazione. Schmidt ha raccomandato di prima costruire prototipi di IA scaricando grandi quantità di dati e di cercare consulenza legale solo dopo aver ottenuto risultati, evidenziando come lo Silicon Valley dia priorità all'innovazione rispetto al rispetto rigoroso delle leggi sul diritto d'autore. Queste aziende di IA invocano il “fair use” per giustificare le loro pratiche sui dati, ma allo stesso tempo applicano restrizioni rigide sulla riproduzione dei contenuti generati dall’IA, rivelando un doppio standard. Documenti interni delle aziende mostrano il riconoscimento dell’opposizione da parte dei creatori e il rifiuto di proposte di condivisione dei profitti. Critici sostengono che l’addestramento di IA sfrutti ingiustamente materiali protetti da copyright senza compensare i creatori originali, a volte riproducendo contenuti molto simili. Voce del settore, come l’ex vicepresidente di Stability AI Ed Newton-Rex, chiede l’uso di dati autorizzati. Nel frattempo, le grandi aziende tecnologiche proteggono rigorosamente i diritti d’autore sul software, ma trascurano le protezioni per gli artisti il cui lavoro alimenta lo sviluppo dell’IA. In definitiva, la cultura dello Silicon Valley predilige l’innovazione rapida spesso a spese di norme etiche e legali.

Nell’aprile 2024, l’ex CEO di Google e sostenitore dell’IA, Eric Schmidt, tenne una conferenza privata a Stanford, dicendo agli aspiranti imprenditori della Silicon Valley di essere pronti a oltrepassare le linee etiche. Nonostante 19 cause legali contro aziende di IA generativa come Anthropic e OpenAI per violazioni di copyright legate a libri e media usati per addestrare i modelli, Schmidt consigliò agli studenti di scaricare liberamente contenuti per sviluppare prototipi, suggerendo che i problemi legali si potrebbero risolvere in seguito, se il prodotto avesse successo. Stanford pubblicò brevemente il discorso su YouTube ad agosto 2024, ma lo rimosse il giorno dopo senza commenti. La posizione schietta di Schmidt riflette un atteggiamento comune nella Silicon Valley, spesso mascherato da argomentazioni legali o filosofiche. Il portavoce di Schmidt citò la sua convinzione nel “fair use” come motore di innovazione, facendo eco allo slogan techno-libertario “l’informazione vuole essere libera”, che considera l’informazione come una risorsa da far fluire senza restrizioni. Tuttavia, questo principio si applica raramente alle informazioni proprietarie di Silicon Valley—dati personali e software—che sono altamente protetti. Software come Photoshop e invenzioni come l’algoritmo di ricerca di Google o il design dell’iPhone di Apple sono protetti da brevetti, difesi da team legali di alto livello. Il settore tecnologico è frequentemente coinvolto in battaglie di proprietà intellettuale ad alto rischio: Waymo ha versato 245 milioni di dollari in un accordo con Uber per segreti rubati sui veicoli autonomi, Apple ha ottenuto oltre 1 miliardo di dollari da Samsung in una disputa di sette anni sui brevetti, e Apple e Qualcomm si sono più volte citate in giudizio in tutto il mondo. Nella corsa allo sviluppo dell’IA generativa, le aziende hanno puntato con aggressività su settori meno preparati, addestrando i sistemi su grandi dataset spesso contenenti contenuti coperti da copyright. Le aziende motivano questa scelta in modi diversi: OpenAI afferma di usare solo dati pubblicamente disponibili; Anthropic dice di usare libri, ma non commercialmente; Meta ammette di usare libri a scopo commerciale ma lo definisce “fair use per eccellenza”. Tuttavia, queste stesse aziende rifiutano affermazioni di fair use quando si tratta di proteggere le proprie creazioni.

OpenAI vieta agli utenti di addestrare modelli concorrenti sugli output di ChatGPT; Anthropic, Google e xAI hanno regole simili—ossia “possiamo usare il vostro lavoro per addestrare i nostri modelli, ma voi non potete usare il nostro”. Sebbene le pressioni di mercato spieghino questi standard auto-definitivi, le contraddizioni tra azioni e valori dichiarati sono evidenti. Meta, ad esempio, definisce i propri modelli “aperti” ma impedisce copie online, chiedendo la loro rimozione—una posizione in contrasto con la filosofia aperta tipica del software libero. Il valore dei dati di addestramento è chiaro: nel 2021, il CEO di Anthropic, Dario Amodei, scrisse che sarebbe stato giusto compensare i produttori di dati con quote di profitto o azioni per evitare reazioni negative da parte dei creatori, che potrebbero rallentare il progresso dell’IA. Tuttavia, oggi Anthropic sostiene che usare lavori coperti da copyright sia “fair use”, e che quindi i creatori non abbiano diritto a nulla, senza aver commentato questa incoerenza. Le aziende affermano che gli output dell’IA sono originali e non derivati dai dati di addestramento, ma i rapporti mostrano che chatbot e generatori di immagini possono riprodurre copie quasi identiche di opere come Harry Potter o di arte esistente. Le aziende hanno minimizzato questi problemi, anche invocando le preoccupazioni geopolitiche di un “corsa all’IA” come giustificazione per ampie richieste di fair use—OpenAI ha avvertito che senza accesso a queste risorse, l’America perderebbe la competizione sull’IA. Non tutti gli addetti ai lavori sono d’accordo. Ed Newton-Rex, ex VP di Stability AI, si dimise alla fine del 2023 criticando l’attuale addestramento dell’IA, giudicato incompatibile con le economie creative basate sui diritti d’autore, e ha avviato Fairly Trained, un progetto che certifica modelli IA addestrati con dati correttamente licenziati. Nel frattempo, la Silicon Valley stessa da tempo subisce furti di proprietà intellettuale attraverso la pirateria software, portando le aziende a cambiare i modelli di distribuzione: Adobe e Microsoft ora richiedono abbonamenti con verifica della licenza, e Google non permette download. Questi metodi proteggono i diritti di proprietà, ma sono inaccessibili a molti creatori la cui opera viene sfruttata dalle aziende di IA. Questo doppio standard solleva dubbi sulla sincerità delle affermazioni della Silicon Valley circa il fair use—sono principi autentici o semplicemente strategie legali?L’IA generativa pone infatti questioni nuove sul copyright, ma le pratiche aggressive del settore—muovendosi a ritmo veloce, rompendo cose e contando sui legali per risolvere i problemi—riflettono le norme storiche del business della Silicon Valley più che un’autentica spinta innovativa sui principi.


Watch video about

Il controverso consiglio di Eric Schmidt sull'etica dell'IA scatena un dibattito sul copyright e l'uso lecito a Silicon Valley

Try our premium solution and start getting clients — at no cost to you

Content creator image

I'm your Content Creator.
Let’s make a post or video and publish it on any social media — ready?

Language

Hot news

March 24, 2026, 2:31 p.m.

Alexa di Amazon introduce funzionalità di persona…

Amazon ha recentemente lanciato un importante aggiornamento del suo assistente virtuale Alexa, che integra avanzate funzionalità di personalizzazione basate sull’intelligenza artificiale, mirate a migliorare l’esperienza dell’utente.

March 24, 2026, 2:18 p.m.

Alta raccoglie 7 milioni di dollari in un seed ro…

Alta, un'azienda israeliana innovativa specializzata in intelligenza artificiale, ha con successo assicurato sette milioni di dollari in un round di finanziamento seed per avanzare nello sviluppo di agenti IA pensati specificamente per i team di vendita B2B.

March 24, 2026, 2:16 p.m.

Gli strumenti di videoconferenza con intelligenza…

L'integrazione dell'intelligenza artificiale (IA) nelle piattaforme di videoconferenza sta trasformando il lavoro remoto, rimodellando la comunicazione e la collaborazione virtuale.

March 24, 2026, 10:19 a.m.

C3 AI: Cambiamento alla guida e lancio di un nuov…

Il 3 settembre 2025, C3 AI, uno dei principali fornitori di software di intelligenza artificiale per le imprese, ha annunciato Stephen Ehikian come suo nuovo Amministratore Delegato (CEO), con эффектив dal 1° settembre 2025.

March 24, 2026, 6:28 a.m.

Verifica dei fatti: il video NON mostra danni sul…

C'è un vero video che mostra danni alla portaerei USS Gerald R. Ford causati da un incendio in lavanderia? No, questa affermazione è falsa.

March 24, 2026, 6:20 a.m.

Agente di Ricerca Vendite in Microsoft Dynamics 3…

Microsoft ha lanciato un'app innovativa basata sull'intelligenza artificiale chiamata Sales Research Agent all’interno della sua piattaforma Dynamics 365 Sales.

March 24, 2026, 6:16 a.m.

La pubblicità natalizia di McDonald's generata da…

Recentemente, McDonald's Paesi Bassi ha pubblicato una pubblicità natalizia creata utilizzando l'intelligenza artificiale, con l'obiettivo di offrire una prospettiva fresca e innovativa sulla stagione delle festività.

All news

AI Company

Launch your AI-powered team to automate Marketing, Sales & Growth

AI Company welcome image

and get clients on autopilot — from social media and search engines. No ads needed

Begin getting your first leads today