Les défis anthropiques entraînent l'interdiction par le département de la défense américain de l'utilisation de l'IA devant les tribunaux fédéraux
Brief news summary
Anthropic poursuit le Département de la Défense des États-Unis pour obtenir une ordonnance provisoire afin de suspendre temporairement l’interdiction gouvernementale d’utiliser son système d’IA, Claude, dans les opérations militaires et par des contractors. Ce conflit a émergé après qu’Anthropic eut exprimé son opposition à l’utilisation de Claude pour la surveillance de masse domestique et pour des armes létales entièrement autonomes, incitant l’ancien président Trump à ordonner un arrêt national de son utilisation militaire. Le secrétaire à la Défense, Pete Hegseth, a inscrit Anthropic sur la liste des risques liés à la chaîne d’approvisionnement, une étiquette que l’entreprise considère comme susceptible d’engendrer de graves dommages financiers. La plainte, supervisée par la juge Rita Lin en Californie du Nord, soulève des enjeux cruciaux puisque Claude a été impliqué dans des missions militaires américaines, y compris contre l’Iran. La juge Lin a qualifié cette affaire de « débat fascinant sur la politique publique » et a remis en question si les actions du gouvernement étaient punitives. Les avocats du gouvernement soutiennent que la directive de Hegseth sur les médias sociaux manque d’autorité légale, une question encore à l’étude par la justice. Anthropic affirme que cette désignation viole ses droits du Premier Amendement, en accusant une retaliation pour des discours protégés ainsi que pour son engagement en faveur de la sécurité de l’IA. L’entreprise exprime également des préoccupations quant à l’utilisation abusive de l’IA par des régimes autoritaires, tandis que le Département de la Défense et Trump accusent Anthropic de biais politique, Trump qualifiant la société de « RADICAL LEFT, WOKE COMPANY ».Mardi après-midi, Anthropic a confronté le Département de la Défense devant un tribunal fédéral alors que la société d’IA cherchait à obtenir une ordonnance provisoire pour suspendre la décision du gouvernement interdisant à l'armée américaine et à ses contractants d’utiliser sa technologie. Le différend porte sur le refus d’Anthropic de laisser son chatbot Claude être utilisé pour la surveillance de masse intérieure et pour des armes létales entièrement autonomes. Cette controverse s’est intensifiée après que Donald Trump a ordonné à toutes les agences du gouvernement américain de cesser d’utiliser les outils d’Anthropic, une directive que la société conteste également. Les représentants de la société d'IA et des responsables gouvernementaux sont apparus devant la juge Rita Lin dans un tribunal de district en Californie du Nord, où la juge a supervisé l’audience sur une injonction provisoire. Cette séance marquait un stade précoce dans le procès d’Anthropic contre le département de la Défense, déposé plus tôt ce mois-ci suite à la déclaration de Pete Hegseth, secrétaire à la Défense, qui qualifiait la société de risque pour la chaîne d’approvisionnement. Anthropic affirme que cette classification leur causera des dommages irréparables et leur fera perdre des centaines de millions ou plus en revenus. La plainte et la décision de la juge Lin devraient avoir de vastes conséquences pour Anthropic et le gouvernement américain, qui s’est énormément appuyé sur Claude au cours de l’année écoulée pour diverses fonctions, y compris des opérations militaires contre l’Iran. Le conflit, notamment la démarche sans précédent du département de la Défense consistant à qualifier une société américaine de risque pour la chaîne d’approvisionnement, a également tendu les liens étroits entre la Silicon Valley et l’administration Trump. La juge Lin a décrit l’affaire comme un « débat public fascinant sur la politique » mais a souligné que sa responsabilité se limite à déterminer si les actions du gouvernement étaient illégales. Elle a aussi exprimé des soupçons quant à la conduite du gouvernement, suggérant qu’il aurait pu dépasser la simple décision de ne pas collaborer avec Anthropic pour entrer dans un territoire punitif. « On dirait une tentative de paralyser Anthropic », a dit Lin. Les avocats du gouvernement ont rétorqué que l’annonce sur les réseaux sociaux de Hegseth le mois dernier, qui interdisait aux contractants de travailler avec le gouvernement s’ils interagissaient avec Anthropic, n’était pas une mesure juridiquement contraignante.
Ils ont argumenté qu’aucune partie ne serait pénalisée pour l’ignorer. Cependant, leur position semblait en contradiction avec le message de Hegseth sur X, qui déclarait que tout contractant faisant des affaires avec l’armée devait éviter Anthropic. La juge Lin a questionné l’avocat du gouvernement en disant : « Vous vous tenez ici en disant, ‘Nous l’avons dit, mais nous ne le voulions pas vraiment’ ». Elle a aussi demandé pourquoi Hegseth ferait une telle déclaration si elle n’avait aucune valeur juridique. « Je ne sais pas », a répondu l’avocat du gouvernement. Anthropic a refusé de commenter la procédure judiciaire. Le département de la Défense a déclaré qu’il ne commentait pas les affaires en cours, par politique. Anthropic affirme que le fait de désigner son entreprise comme un risque pour la chaîne d’approvisionnement viole ses droits garantis par le Premier Amendement, estimant que cette mesure visait à punir la société pour avoir déplu au président et résisté à la demande du département de détendre les garde-fous de sécurité sur Claude. « Ces actions sont sans précédent et illégales. La Constitution n’autorise pas le gouvernement à utiliser son pouvoir immense pour punir une entreprise pour ses discours protégés », a déclaré Anthropic dans sa plainte déposée en Californie. L’entreprise maintient que son modèle d’IA n’est pas suffisamment fiable pour une surveillance de masse intérieure ou pour des systèmes d’armes létales entièrement autonomes. Le PDG Dario Amodei a exprimé des préoccupations concernant l’utilisation potentielle de l’IA de manière autoritaire. À l'inverse, des responsables de la défense américaine et Trump ont caractérisé la position d’Anthropic comme étant politiquement biaisée et une trahison, Trump qualifiant la société de « UNE ENTREPRISE DE GAUCHE RADICALE, WOKE » dans un message publié sur sa plateforme sociale, Truth Social.
Watch video about
Les défis anthropiques entraînent l'interdiction par le département de la défense américain de l'utilisation de l'IA devant les tribunaux fédéraux
Try our premium solution and start getting clients — at no cost to you