lang icon En
March 11, 2026, 6:16 a.m.
108

Le Pentagone ordonne le retrait de l'IA anthropique en raison de préoccupations de sécurité nationale

Brief news summary

Le Département de la Défense des États-Unis a ordonné le retrait des produits d'IA d’Anthropic dans toutes les branches militaires dans un délai de 180 jours, invoquant des risques inacceptables liés à la chaîne d’approvisionnement. C’est la première fois qu’une entreprise américaine fait face à de telles restrictions, qui étaient auparavant réservées à des sociétés étrangères comme Huawei. Cette interdiction concerne des domaines cruciaux de la sécurité nationale, notamment les armes nucléaires, la défense antimissile et les systèmes de cyber-guerre, obligeant les contractants gouvernementaux à cesser d’utiliser les outils d’Anthropic dans le cadre des contrats avec le DoD. La décision fait suite à l’échec des négociations concernant les restrictions sur le modèle d’IA Claude d’Anthropic, que le Pentagone a rejeté, affirmant que les lois en vigueur suffisent. Claude, déployé de manière unique sur des systèmes classifiés du Pentagone, supporte l’analyse du renseignement et le ciblage dans des zones de conflit telles que l’Iran. En réponse, Anthropic a déposé des poursuites, accusant une retaliation illégale et une violation de la liberté d’expression. La Maison-Blanche soutient la démarche du Pentagone, en insistant sur la sécurité nationale. Par ailleurs, après l’échec des négociations avec Anthropic, OpenAI a obtenu un contrat avec le Pentagone, mettant en lumière des tensions concernant les enjeux éthiques et le contrôle des technologies avancées d’IA.

Le Département de la Défense a donné instruction formelle aux hauts responsables militaires américains de retirer les produits d'IA d'Anthropic de leurs systèmes dans un délai de 180 jours, selon une note interne du 6 mars obtenue par CBS News. Cette directive, émise le lendemain du classement d’Anthropic comme risque dans la chaîne d’approvisionnement par le Pentagone, avertit que l’IA d’Anthropic présente une menace inacceptable pour tous les systèmes et réseaux du Département de la Défense. Signée par la CIO Kirsten Davies, la note souligne les mesures strictes que les commandants doivent prendre pour éliminer l’IA d’Anthropic de systèmes cruciaux liés à la sécurité nationale, notamment les armes nucléaires, la défense antimissile et la cyber-guerre. Elle impose également à tout entrepreneur travaillant avec le Pentagone de cesser l’utilisation des produits d’Anthropic sur les projets liés à la Défense dans un délai de 180 jours. Davies a mis en garde contre le fait que des adversaires pourraient exploiter des vulnérabilités dans les opérations du Pentagone, entraînant potentiellement des risques catastrophiques pour les combattants. Elle a insisté sur le fait que seule elle peut approuver des exemptions, qui seront accordées uniquement pour des opérations de sécurité nationale critiques et dépourvues d’alternatives viables, à condition que des plans de réduction des risques soient soumis. Un haut responsable du Pentagone a confirmé l’authenticité de la note, tandis qu’Anthropic n’a pas fait de commentaire immédiat. Cette action sans précédent du gouvernement fédéral marque la première fois qu’une entreprise américaine est désignée comme un risque dans la chaîne d’approvisionnement ; les restrictions précédentes concernaient des sociétés étrangères comme Huawei.

La décision intervient suite à une impasse concernant la demande d’Anthropic de deux « lignes rouges » interdisant à l’armée américaine d’utiliser son IA Claude pour la surveillance de masse des Américains ou pour des armes entièrement autonomes — mesures que le PDG d’Anthropic, Dario Amodei, dit refléter les valeurs américaines. Cependant, le Pentagone a insisté sur l’utilisation de Claude à toutes fins légales sans limitations, affirmant que les usages interdits sont déjà interdits. Selon des sources informées, Claude soutient les efforts militaires américains dans la guerre contre l’Iran. Anthropic demeure la seule entreprise d’IA avec des modèles déployés sur les systèmes classifiés du Pentagone. Après l’échec des négociations le mois dernier, OpenAI, principal rival d’Anthropic, a annoncé un contrat avec le Pentagone. Le même jour que la diffusion de la note, Anthropic a déposé deux poursuites contre le gouvernement fédéral, alléguant que la désignation comme risque dans la chaîne d’approvisionnement est une vengeance illégale contre la liberté d’expression protégée, en soulignant qu’aucune loi ne permet de telles actions. La porte-parole de la Maison Blanche, Liz Huston, a condamné cette procédure, déclarant que le président Trump « ne permettra jamais qu’une entreprise radicale de gauche et éveillée mette en danger notre sécurité nationale en dictant le fonctionnement de la plus grande et la plus puissante armée du monde ». Selon une source familiarisée avec le rôle militaire de Claude, sa fonction principale est d’analyser rapidement les rapports de renseignement en identifiant des motifs, en résumant les constatations et en mettant en évidence les données pertinentes de manière plus efficace que les analystes humains. L’amiral retraité de la Marine, Mark Montgomery, désormais membre de la Foundation for Defense of Democracies, a indiqué que l’armée traite environ mille cibles potentielles par jour et frappe la majorité en moins de quatre heures, grâce à l’IA qui permet cette échelle et cette rapidité tout en conservant l’humain dans le processus de décision — un rythme sans précédent dans les campagnes antérieures.


Watch video about

Le Pentagone ordonne le retrait de l'IA anthropique en raison de préoccupations de sécurité nationale

Try our premium solution and start getting clients — at no cost to you

Content creator image

I'm your Content Creator.
Let’s make a post or video and publish it on any social media — ready?

Language

Hot news

March 11, 2026, 6:27 a.m.

L'IA pour la vente en 2026 : du "rédaction d'e-ma…

Le paysage des ventes connaît une transformation majeure portée par les avancées de l'intelligence artificielle (IA).

March 11, 2026, 6:25 a.m.

Les systèmes de vidéosurveillance par intelligenc…

Les municipalités et les agences de maintien de l’ordre de toute la région adoptent de plus en plus les technologies avancées d’intelligence artificielle (IA) pour améliorer la vidéosurveillance dans les espaces publics.

March 11, 2026, 6:22 a.m.

Les 5 principales tendances des réseaux sociaux p…

Les réseaux sociaux ne montrent aucun signe de ralentissement, avec des habitudes, formats et créations de contenu en constante évolution jusqu’en 2026.

March 11, 2026, 6:21 a.m.

OpenAI développe une plateforme d'emplois en inte…

OpenAI fait une avancée majeure dans l’emploi et l’éducation avec sa nouvelle « Plateforme Emplois OpenAI » et « Académie OpenAI ».

March 11, 2026, 6:11 a.m.

Les tendances du référencement alimenté par l'IA …

L'intelligence artificielle révolutionne de manière spectaculaire le domaine de l'optimisation pour les moteurs de recherche, avec des résumés de contenu générés par l'IA apparaissant désormais dans plus du tiers des résultats de recherche liés aux affaires et à la technologie.

March 10, 2026, 3:09 p.m.

L'IA et l'évolution du référencement : ce que les…

L'intelligence artificielle (IA) révolutionne rapidement de nombreux aspects du marketing numérique, le référencement (SEO) étant à la tête de cette transformation.

March 10, 2026, 2:13 p.m.

Vista Social ouvre la voie en tant que premier ou…

Vista Social, une plateforme de marketing sur les réseaux sociaux de premier plan, a annoncé une amélioration majeure de ses services en lançant une nouvelle intégration avec le générateur de texte en image alimenté par l'IA de Canva.

All news

AI Company

Launch your AI-powered team to automate Marketing, Sales & Growth

AI Company welcome image

and get clients on autopilot — from social media and search engines. No ads needed

Begin getting your first leads today