Estados Unidos utiliza la inteligencia artificial para atacar las ciudades iraníes con misiles, mientras Anthropic demanda a la administración Trump.
Greg , director del Centro de IA Wadhwani del CSIS, habla en «The Will Show» sobre cómo Estados Unidos está utilizando la inteligencia artificial para atacar los lanzamisiles de Irán.
La decisión de un juez federal de impedir que la administración Trump prohíba a la empresa de IA Anthropic trabajar con el Departamento de Defensa está desatando un debate sobre si esta sentencia empuja a los tribunales a intervenir en la toma de decisiones sobre seguridad nacional.
La resolución, dictada el jueves por la noche por la jueza federal Rita Lin Biden en el Distrito Norte de California, suspende temporalmente la iniciativa general del Gobierno de excluir a la empresa mientras se resuelve el caso, aunque no obliga explícitamente al Pentágono a utilizar los servicios de Anthropic. La jueza también concedió al Gobierno una semana para presentar un recurso.
El subsecretario de Guerra, Emil Michael el día X que la resolución contenía «docenas de errores fácticos» y se había emitido «en un momento de conflicto», argumentando que «pretende socavar el papel (del presidente) como comandante en jefe» y perturbar la capacidad del departamento para llevar a cabo operaciones militares.
UN VALIENTE CORONEL DE LA MARINA SE ENFRENTÓ AL PENTÁGONO... Y PAGÓ EL PRECIO POR ELLO
Michael la administración sigue considerando a Anthropic un riesgo para la cadena de suministro mientras se resuelve la apelación, lo que indica que los funcionarios están cuestionando el alcance y el efecto de la orden judicial.
Lin dijo que la decisión del Pentágono de calificar a Anthropic como un riesgo para la seguridad nacional era «probablemente contraria a la ley, además de arbitraria y caprichosa».
«No hay nada en la ley vigente que respalde la idea orwelliana de que una empresa estadounidense pueda ser tachada de adversaria potencial y saboteadora de EE. UU. por expresar su desacuerdo con el Gobierno», dijo Lin.
«¿Puede un juez ordenar al Departamento de Guerra que utilice un proveedor que supone un riesgo para la seguridad? ¿No, pero también sí? El juez Lin (Biden de Distrito CaliforniaBiden , bajo la jurisdicciónBiden ) intenta impedir que el presidente Trump y el secretario Hegseth prohíban Anthropic. Pero ¿reconoce que pueden optar por no utilizarlo?», escribió un usuario de X, Eric , en la red social.

El secretario de Guerra, Pete Hegseth, figura como demandado en la demanda junto con otras personas. (Julia Nikhinson/AP)

El secretario de Guerra, Pete Hegseth, había advertido a Anthropic de que se enfrentaría a la rescisión de su contrato de 200 millones de dólares o sería considerada un riesgo para la cadena de suministro si no permitía que su plataforma de IA fuera aprobada para todos los usos legales. (Joe Getty Images)
Otros calificaron la sentencia de «puro activismo judicial» y acusaron al juez de entrometerse en una decisión de seguridad nacional.
Pero quienes apoyan la decisión —entre ellos un grupo bipartidista de casi 150 jueces federales y estatales jubilados— afirman que el Gobierno se ha extralimitado, y advierten de que el uso por parte del Pentágono de la calificación de «riesgo para la cadena de suministro» parece haberse aplicado de forma indebida y podría coartar la libertad de expresión y la actividad empresarial legítima.
En una carta del 3 de marzo, el Pentágono notificó a Anthropic que sería considerada un riesgo para la seguridad nacional en la cadena de suministro. Esa designación ordenaba que ningún contratista, proveedor o socio que trabaje con el ejército de los Estados Unidos pudiera realizar actividades comerciales con Anthropic.
La batalla legal surge a raíz de una disputa más amplia entre el Pentágono y Anthropic sobre cómo se puede utilizar el sistema de IA de la empresa, Claude, en operaciones militares. Claude es el único sistema de IA comercial autorizado para uso clasificado.
El secretario de Defensa, Pete Hegseth, había advertido a Anthropic de que se enfrentaría a la rescisión de su contrato de 200 millones de dólares, adjudicado en julio de 2025, o sería considerada un riesgo para la cadena de suministro si no permitía que su plataforma de IA fuera aprobada para todos los usos legales.
Anthropic insistió en que no permitiría que Claude se utilizara para armas totalmente autónomas ni para la vigilancia masiva de los estadounidenses.
Los responsables del Pentágono afirman que esos usos ya están prohibidos, y subrayan que los seres humanos siguen estando al mando en las decisiones letales y que el ejército no lleva a cabo vigilancia interna. También sostienen que las empresas privadas no pueden dictar cómo se utilizan sus sistemas en operaciones legales.
Lin señaló el alcance de las medidas —entre las que se incluyen una prohibición en todo el Gobierno y restricciones para los contratistas— y afirmó que no parecían «adaptadas a la preocupación por la seguridad nacional que se había planteado», sino que, por el contrario, «parecían un intento de paralizar a Anthropic».

Hegseth describió CEO Amodei y a Anthropic como «un ejemplo paradigmático de arrogancia» y «un caso de libro de cómo no se deben hacer negocios con el Gobierno de Estados Unidos». (SamyuktaBloomberg Getty Images)
Anthropic acogió con satisfacción la decisión y declaró en un comunicado: «Agradecemos al tribunal su rapidez y nos alegra que considere probable que Anthropic gane el caso por el fondo del asunto».
HAZ CLIC AQUÍ PARA DESCARGAR LA APP DE FOX NEWS
En una publicación del 27 de febrero en X, Hegseth describió CEO Amodei y a Anthropic como «un ejemplo paradigmático de arrogancia» y «un caso de libro de cómo no se deben hacer negocios con el Gobierno de Estados Unidos».
OpenAI convertido en una alternativa clave, tras cerrar un acuerdo con el Pentágono para implementar sus modelos en sistemas clasificados a medida que se intensificaban las tensiones con Anthropic.
Aun así, Anthropic no ha sido totalmente desplazado. Su sistema Claude sigue estando muy integrado en los procesos militares, y sustituirlo llevaría tiempo.













































