Los desafíos antropológicos llevan al Departamento de Defensa de EE.UU. a prohibir el uso de IA en tribunales federales
Brief news summary
Anthropic está demandando al Departamento de Defensa de Estados Unidos para bloquear temporalmente una prohibición gubernamental sobre el uso de su sistema de IA, Claude, en operaciones militares y de contratistas. Este conflicto surgió después de que Anthropic se opuso a desplegar Claude en vigilancia masiva doméstica y en armas letales totalmente autónomas, lo que llevó al expresidente Trump a ordenar una suspensión a nivel nacional de su uso militar. El Secretario de Defensa, Pete Hegseth, calificó a Anthropic como un riesgo en la cadena de suministro, una etiqueta que la compañía argumenta podría causar graves daños financieros. La demanda, dirigida por la juez Rita Lin en el Norte de California, plantea cuestiones clave, ya que Claude ha participado en misiones militares estadounidenses, incluyendo acciones contra Irán. La juez Lin describió el caso como un “fascinante debate de política pública” y cuestionó si las acciones del gobierno son punitivas. Los abogados del gobierno sostienen que la directiva de Hegseth en las redes sociales carece de autoridad legal, un asunto que aún está en revisión judicial. Anthropic argumenta que la designación viola sus derechos de la Primera Enmienda, alegando que fue una represalia por expresiones protegidas y por su compromiso con la seguridad de la IA. La compañía también expresa su preocupación por el mal uso de la IA por regímenes autoritarios, mientras que el Departamento de Defensa y Trump acusan a Anthropic de sesgo político, con Trump calificándola como una “COMPAÑÍA RADICAL DE IZQUIERDA, WOKE”.El martes por la tarde, Anthropic se enfrentó al Departamento de Defensa en un tribunal federal cuando la compañía de inteligencia artificial buscaba una suspensión provisional de la decisión del gobierno que prohíbe a las fuerzas militares de EE. UU. y a contratistas usar su tecnología. La disputa gira en torno a la negativa de Anthropic a permitir que su chatbot de IA, Claude, sea empleado para vigilancia masiva doméstica y armas letales completamente autónomas. Esta controversia se intensificó después de que Donald Trump ordenara a todas las agencias gubernamentales de EE. UU. cesar el uso de las herramientas de Anthropic, una directiva que la compañía también está impugnando. Los representantes de la firma de IA y funcionarios del gobierno comparecieron ante la juez Rita Lin en un tribunal del distrito del norte de California, donde la jueza supervisó la audiencia sobre una medida cautelar. Esta sesión representó una etapa temprana en la demanda de Anthropic contra el departamento de defensa, presentada a principios de este mes tras que Pete Hegseth, secretario de defensa, calificara a la compañía como un riesgo en la cadena de suministro. Anthropic afirma que esta clasificación causará daños irreparables y le costará cientos de millones o más en ingresos. La demanda y la resolución de la jueza Lin están destinadas a tener amplias consecuencias tanto para Anthropic como para el gobierno de EE. UU. , que ha dependido mucho de Claude en el último año para diversas funciones, incluyendo operaciones militares contra Irán.
El conflicto, especialmente el paso sin precedentes del departamento de defensa de catalogar a una empresa estadounidense como un riesgo en la cadena de suministro, también ha tensado los estrechos lazos entre Silicon Valley y la administración Trump. La jueza Lin describió el caso como un “fascinante debate de política pública” pero enfatizó que su responsabilidad se centra en determinar si las acciones del gobierno fueron ilegales. También expresó sospechas sobre la conducta del gobierno, sugiriendo que podría haber excedido simplemente decidir no colaborar con Anthropic y haber entrado en territorio punitivo. “Parece un intento de paralizar a Anthropic, ” comentó Lin. Los abogados del gobierno contrargumentaron que el anuncio en redes sociales de Hegseth el mes pasado, que prohibía a los contratistas trabajar con el gobierno si contrataban con Anthropic, no era una acción legalmente vinculante. Argumentaron que ninguna de las partes enfrentaría penalizaciones por ignorarlo. Sin embargo, su postura pareció entrar en conflicto con la publicación de Hegseth en X, que afirmaba que cualquier contratista que hiciera negocios con el ejército debía evitar a Anthropic. La jueza Lin interrogó al abogado del gobierno, diciendo: “Están diciendo: ‘Lo dijimos, pero en realidad no lo queríamos decir’. ” También cuestionó por qué Hegseth haría tal afirmación si no tenía peso legal alguno. “No lo sé, ” respondió el abogado del gobierno. Anthropic se negó a comentar sobre la litigación. El departamento de defensa ha declarado que no comenta temas legales en curso como política. Anthropic afirma que la designación de riesgo en la cadena de suministro violó sus derechos de la Primera Enmienda, argumentando que la medida fue destinada a castigar a la empresa por desagradar al presidente y resistirse a la solicitud del departamento de relajar las medidas de seguridad en Claude. “Estas acciones son sin precedentes e ilegales. La Constitución no permite que el gobierno use su enorme poder para castigar a una empresa por su discurso protegido, ” manifestó Anthropic en su presentación en California. La compañía ha sostenido que su modelo de IA no es lo suficientemente confiable para vigilancia masiva doméstica ni para sistemas de armas letales totalmente autónomas. El CEO Dario Amodei ha expresado preocupación por el potencial uso de la IA en formas autoritarias. Por otro lado, funcionarios de defensa de EE. UU. y Trump han calificado la postura de Anthropic como sesgada políticamente y una traición, con Trump etiquetando a la empresa como una “EMPRESA DE IZQUIERDA RADICAL, WOKE” en una publicación en su plataforma social Truth Social.
Watch video about
Los desafíos antropológicos llevan al Departamento de Defensa de EE.UU. a prohibir el uso de IA en tribunales federales
Try our premium solution and start getting clients — at no cost to you