Le sfide umane portano il Dipartimento della Difesa degli Stati Uniti a bandire l'uso dell'IA in tribunale federale
Brief news summary
Anthropic fa causa il Dipartimento della Difesa degli Stati Uniti per bloccare temporaneamente un divieto governativo sull'uso del suo sistema di intelligenza artificiale, Claude, nelle operazioni militari e da parte dei contractor. Questo conflitto è emerso dopo che Anthropic si è opposta alla diffusione di Claude nel sistema di sorveglianza di massa nazionale e alle armi letali completamente autonome, portando l'ex presidente Trump a ordinare una sospensione a livello nazionale del suo impiego militare. Il Segretario alla Difesa Pete Hegseth ha classificato Anthropic come un rischio per la catena di approvvigionamento, etichetta che l'azienda sostiene possa causare gravi danni finanziari. La causa, affidata alla giudice Rita Lin del Nord della California, solleva questioni chiave poiché Claude è stato coinvolto in missioni militari statunitensi, compresi interventi contro l’Iran. La giudice Lin ha definito il caso come un “affascinante dibattito di politica pubblica” e ha messo in dubbio se le azioni del governo siano punitive. Gli avvocati del governo sostengono che la direttiva di Hegseth sui social media manchi di autorità legale, questione ancora sotto esame giudiziario. Anthropic sostiene che la classificazione viola i suoi diritti garantiti dal Primo Emendamento, accusando una ritorsione per l’espressione protetta e il suo impegno per la sicurezza dell’AI. L’azienda esprime anche preoccupazione per un uso improprio dell’AI da parte di regimi autoritari, mentre il Dipartimento della Difesa e Trump accusano Anthropic di partigianeria politica, con Trump che la definisce una “COMPAGNIA RADICALMENTE DI SINISTRA, WOKE”.Il pomeriggio di martedì, Anthropic si è confrontata con il Dipartimento della Difesa in un tribunale federale mentre la società di intelligenza artificiale cercava di ottenere una sospensione temporanea della decisione governativa che vietava all’esercito americano e ai suoi appaltatori di utilizzare la sua tecnologia. La disputa verte sulla riluttanza di Anthropic a consentire al suo chatbot AI Claude di essere impiegato per la sorveglianza di massa domestica e sistemi di armi letali completamente autonome. Questa controversia si è intensificata dopo che Donald Trump ha ordinato a tutte le agenzie governative degli Stati Uniti di cessare l’uso degli strumenti di Anthropic, un ordine che la stessa società sta contestando. I rappresentanti della società di intelligenza artificiale e funzionari del governo sono comparsi davanti al giudice Rita Lin in un tribunale del distretto della California settentrionale, dove la giudice ha presieduto l’udienza sulla richiesta di ingiunzione temporanea. Questa sessione ha rappresentato una fase iniziale della causa di Anthropic contro il dipartimento della difesa, presentata all’inizio di questo mese dopo che Pete Hegseth, il segretario alla Difesa, aveva qualificato l’azienda come un rischio per la catena di approvvigionamento. Anthropic sostiene che questa classificazione arrecherà danni irreparabili e le costerà centinaia di milioni o più di entrate. La causa e la sentenza della giudice Lin sono destinate ad avere conseguenze ampie sia per Anthropic che per il governo degli Stati Uniti, che negli ultimi mesi ha fatto affidamento pesantemente su Claude per varie funzioni, tra cui operazioni militari contro l’Iran. Il conflitto, in particolare la mossa senza precedenti del dipartimento della difesa di etichettare un’azienda statunitense come un rischio per la catena di approvvigionamento, ha anche storto i rapporti più stretti tra Silicon Valley e l’amministrazione Trump. La giudice Lin ha descritto il caso come un “affascinante dibattito di politica pubblica” ma ha sottolineato che la sua responsabilità è strettamente concentrata sulla determinazione se le azioni del governo fossero illegali. Ha anche espresso sospetti sul comportamento del governo, suggerendo che possa aver superato il semplice rifiuto di collaborare con Anthropic, entrando in territorio punitivo. “Sembra un tentativo di paralizzare Anthropic, ” ha commentato Lin. Gli avvocati del governo hanno risposto che l’annuncio sui social media di Hegseth lo scorso mese, che vietava ai consulenti di lavorare con il governo se coinvolti con Anthropic, non rappresentava un’azione legalmente vincolante.
Hanno sostenuto che nessuna parte avrebbe subito sanzioni per ignorarlo. Tuttavia, la loro posizione sembrava contraddirsi con il post di Hegseth su X, in cui si affermava che qualsiasi appaltatore che faccia affari con l’esercito deve evitare Anthropic. La giudice Lin ha sollecitato l’avvocato del governo, dicendo: “State dicendo qui, ‘Abbiamo detto, ma in realtà non volevamo dire’. ” Ha inoltre chiesto perché Hegseth avrebbe fatto una simile affermazione se questa non avesse alcun peso legale. “Non lo so, ” ha risposto l’avvocato del governo. Anthropic ha scelto di non commentare la causa legale. Il dipartimento della difesa ha dichiarato di non discutere di questioni legali in corso, secondo la propria politica. Anthropic sostiene che la classificazione come rischio per la catena di approvvigionamento abbia violato i suoi diritti del Primo Emendamento, sostenendo che questa mossa fosse voluta per punire l’azienda per aver infastidito il presidente e resistito alla richiesta del dipartimento di rilassare le misure di sicurezza su Claude. “Queste azioni sono senza precedenti e illegali. La Costituzione non permette al governo di esercitare il suo enorme potere per punire un’azienda per il suo discorso tutelato, ” ha dichiarato Anthropic nel suo deposito in California. L’azienda ha ribadito che il suo modello di intelligenza artificiale non è abbastanza affidabile per la sorveglianza di massa domestica o per sistemi di armi letali completamente autonome. L’amministratore delegato Dario Amodei ha espresso preoccupazione riguardo all’uso potenziale dell’intelligenza artificiale in modi autoritari. Al contrario, funzionari della difesa statunitense e Trump hanno criticato la posizione di Anthropic come politicamente faziosa e un atto di tradimento, con Trump che l’ha definita una “A RADICAL LEFT, WOKE COMPANY” in un post sulla sua piattaforma social, Truth Social.
Watch video about
Le sfide umane portano il Dipartimento della Difesa degli Stati Uniti a bandire l'uso dell'IA in tribunale federale
Try our premium solution and start getting clients — at no cost to you