Le Pentagone ordonne le retrait de l'IA anthropique en raison de préoccupations de sécurité nationale
Brief news summary
Le Département de la Défense des États-Unis a ordonné le retrait des produits d'IA d’Anthropic dans toutes les branches militaires dans un délai de 180 jours, invoquant des risques inacceptables liés à la chaîne d’approvisionnement. C’est la première fois qu’une entreprise américaine fait face à de telles restrictions, qui étaient auparavant réservées à des sociétés étrangères comme Huawei. Cette interdiction concerne des domaines cruciaux de la sécurité nationale, notamment les armes nucléaires, la défense antimissile et les systèmes de cyber-guerre, obligeant les contractants gouvernementaux à cesser d’utiliser les outils d’Anthropic dans le cadre des contrats avec le DoD. La décision fait suite à l’échec des négociations concernant les restrictions sur le modèle d’IA Claude d’Anthropic, que le Pentagone a rejeté, affirmant que les lois en vigueur suffisent. Claude, déployé de manière unique sur des systèmes classifiés du Pentagone, supporte l’analyse du renseignement et le ciblage dans des zones de conflit telles que l’Iran. En réponse, Anthropic a déposé des poursuites, accusant une retaliation illégale et une violation de la liberté d’expression. La Maison-Blanche soutient la démarche du Pentagone, en insistant sur la sécurité nationale. Par ailleurs, après l’échec des négociations avec Anthropic, OpenAI a obtenu un contrat avec le Pentagone, mettant en lumière des tensions concernant les enjeux éthiques et le contrôle des technologies avancées d’IA.Le Département de la Défense a donné instruction formelle aux hauts responsables militaires américains de retirer les produits d'IA d'Anthropic de leurs systèmes dans un délai de 180 jours, selon une note interne du 6 mars obtenue par CBS News. Cette directive, émise le lendemain du classement d’Anthropic comme risque dans la chaîne d’approvisionnement par le Pentagone, avertit que l’IA d’Anthropic présente une menace inacceptable pour tous les systèmes et réseaux du Département de la Défense. Signée par la CIO Kirsten Davies, la note souligne les mesures strictes que les commandants doivent prendre pour éliminer l’IA d’Anthropic de systèmes cruciaux liés à la sécurité nationale, notamment les armes nucléaires, la défense antimissile et la cyber-guerre. Elle impose également à tout entrepreneur travaillant avec le Pentagone de cesser l’utilisation des produits d’Anthropic sur les projets liés à la Défense dans un délai de 180 jours. Davies a mis en garde contre le fait que des adversaires pourraient exploiter des vulnérabilités dans les opérations du Pentagone, entraînant potentiellement des risques catastrophiques pour les combattants. Elle a insisté sur le fait que seule elle peut approuver des exemptions, qui seront accordées uniquement pour des opérations de sécurité nationale critiques et dépourvues d’alternatives viables, à condition que des plans de réduction des risques soient soumis. Un haut responsable du Pentagone a confirmé l’authenticité de la note, tandis qu’Anthropic n’a pas fait de commentaire immédiat. Cette action sans précédent du gouvernement fédéral marque la première fois qu’une entreprise américaine est désignée comme un risque dans la chaîne d’approvisionnement ; les restrictions précédentes concernaient des sociétés étrangères comme Huawei.
La décision intervient suite à une impasse concernant la demande d’Anthropic de deux « lignes rouges » interdisant à l’armée américaine d’utiliser son IA Claude pour la surveillance de masse des Américains ou pour des armes entièrement autonomes — mesures que le PDG d’Anthropic, Dario Amodei, dit refléter les valeurs américaines. Cependant, le Pentagone a insisté sur l’utilisation de Claude à toutes fins légales sans limitations, affirmant que les usages interdits sont déjà interdits. Selon des sources informées, Claude soutient les efforts militaires américains dans la guerre contre l’Iran. Anthropic demeure la seule entreprise d’IA avec des modèles déployés sur les systèmes classifiés du Pentagone. Après l’échec des négociations le mois dernier, OpenAI, principal rival d’Anthropic, a annoncé un contrat avec le Pentagone. Le même jour que la diffusion de la note, Anthropic a déposé deux poursuites contre le gouvernement fédéral, alléguant que la désignation comme risque dans la chaîne d’approvisionnement est une vengeance illégale contre la liberté d’expression protégée, en soulignant qu’aucune loi ne permet de telles actions. La porte-parole de la Maison Blanche, Liz Huston, a condamné cette procédure, déclarant que le président Trump « ne permettra jamais qu’une entreprise radicale de gauche et éveillée mette en danger notre sécurité nationale en dictant le fonctionnement de la plus grande et la plus puissante armée du monde ». Selon une source familiarisée avec le rôle militaire de Claude, sa fonction principale est d’analyser rapidement les rapports de renseignement en identifiant des motifs, en résumant les constatations et en mettant en évidence les données pertinentes de manière plus efficace que les analystes humains. L’amiral retraité de la Marine, Mark Montgomery, désormais membre de la Foundation for Defense of Democracies, a indiqué que l’armée traite environ mille cibles potentielles par jour et frappe la majorité en moins de quatre heures, grâce à l’IA qui permet cette échelle et cette rapidité tout en conservant l’humain dans le processus de décision — un rythme sans précédent dans les campagnes antérieures.
Watch video about
Le Pentagone ordonne le retrait de l'IA anthropique en raison de préoccupations de sécurité nationale
Try our premium solution and start getting clients — at no cost to you