Pentágono ordena remoção de IA da Anthropic por preocupações de segurança nacional
Brief news summary
O Departamento de Defesa dos EUA ordenou a remoção dos produtos de IA da Anthropic de todas as forças militares em até 180 dias, citando riscos inaceitáveis na cadeia de suprimentos. Essa é a primeira vez que uma empresa americana enfrenta restrições desse tipo, anteriormente aplicadas apenas a empresas estrangeiras como a Huawei. A proibição afeta áreas críticas de segurança nacional, incluindo armas nucleares, defesa antimísseis e sistemas de guerra cibernética, exigindo que contratantes do governo cessem o uso das ferramentas da Anthropic em contratos com o DoD. A decisão ocorre após negociações malsucedidas sobre restrições ao modelo de IA Claude, da Anthropic, que o Pentágono rejeitou, afirmando que as leis atuais são suficientes. O Claude, único implantado em sistemas classificados do Pentágono, apoia análises de inteligência e direcionamento em zonas de conflito, como o Irã. Em resposta, a Anthropic entrou com ações judiciais alegando retaliação ilegal e violações à liberdade de expressão. A Casa Branca apoia a decisão do Pentágono, destacando a segurança nacional. Enquanto isso, após o rompimento das negociações com a Anthropic, a OpenAI garantiu um contrato com o Pentágono, evidenciando tensões relacionadas a questões éticas e ao controle das tecnologias avançadas de IA.O Departamento de Defesa instruiu formalmente os altos líderes militares dos EUA a removerem os produtos de IA da Anthropic de seus sistemas em até 180 dias, como consta em um memorando interno de 6 de março obtido pela CBS News. A orientação, emitida um dia após o Pentágono classificar a Anthropic como um risco na cadeia de suprimentos, alerta que a IA da Anthropic apresenta uma ameaça inaceitável a todos os sistemas e redes do Departamento de Defesa. Assinado pela CIO do Defense, Kirsten Davies, o memorando destaca as medidas extensas que os comandantes devem tomar para eliminar a IA da Anthropic de sistemas críticos de segurança nacional, incluindo armas nucleares, defesa contra mísseis e guerra cibernética. Também exige que qualquer contratado que trabalhe com o Pentágono deixe de usar produtos da Anthropic em projetos relacionados à Defesa dentro do prazo de 180 dias. Davies alertou que adversários podem explorar vulnerabilidades nas operações do Pentágono, potencialmente levando a riscos catastróficos para os militares. Ela destacou que somente ela pode aprovar isenções, que serão concedidas exclusivamente para operações de segurança nacional de missão crítica que não tenham alternativas viáveis, mediante planos de mitigação de risco submetidos. Uma fonte do Pentágono confirmou a autenticidade do memorando, enquanto a Anthropic não fez comentários imediatos. Essa ação sem precedentes do governo federal marca a primeira vez que uma empresa americana é classificada como risco na cadeia de suprimentos; restrições anteriores focaram em empresas estrangeiras como Huawei.
A medida ocorre após um impasse referente ao pedido da Anthropic por duas “linha vermelha”: impedir que o uso do IA Claude pelo exército dos EUA incluísse vigilância em massa de americanos ou armas totalmente autônomas — medidas que o CEO da Anthropic, Dario Amodei, afirmou refletirem os valores americanos. No entanto, o Pentágono insistiu no uso de Claude para todas as finalidades legais, sem limitações, argumentando que usos proibidos já são vetados. De fontes bem informadas, Claude apoia os esforços militares americanos na guerra contra o Irã. A Anthropic permanece como a única companhia de IA com modelos implantados nos sistemas classificados do Pentágono. Após negociações frustradas no mês passado, a OpenAI, principal rival da Anthropic, anunciou um contrato com o Pentágono. No mesmo dia da divulgação do memorando, a Anthropic entrou com duas ações judiciais contra o governo federal, alegando que a classificação de risco na cadeia de suprimentos é uma retaliação ilegal por discurso protegido, já que nenhuma lei permite tais ações. A porta-voz da Casa Branca, Liz Huston, condenou a ação, afirmando que o presidente Trump “nunca permitirá que uma empresa radical de esquerda, woke, ponha em risco nossa segurança nacional ao ditar como o maior e mais poderoso exército do mundo opera. ” Segundo uma fonte familiarizada com o papel militar do Claude, sua função principal é analisar rapidamente relatórios de inteligência, identificando padrões, resumindo descobertas e destacando dados relevantes com mais eficiência do que analistas humanos. O almirante aposentado da Marinha, Mark Montgomery, agora diretor da Foundation for Defense of Democracies, observou que o militar processa cerca de mil alvos potenciais diariamente e ataca a maioria deles em um intervalo de quatro horas, graças à IA, que possibilita essa escala e velocidade, mantendo humanos envolvidos na tomada de decisões — um ritmo sem precedente em campanhas anteriores.
Watch video about
Pentágono ordena remoção de IA da Anthropic por preocupações de segurança nacional
Try our premium solution and start getting clients — at no cost to you