Imprimir Imprimir    Close Close

Biden suspende la medida del Gobierno de Trump contra una empresa de IA, lo que aviva la disputa sobre las competencias en materia de seguridad

Por Morgan

Publicado el 27 de marzo de 2026

Fox News
Estados Unidos utiliza la inteligencia artificial para atacar las ciudades iraníes con misiles, mientras Anthropic demanda a la administración Trump. Vídeo

La decisión de un juez federal de impedir que la administración Trump prohíba a la empresa de IA Anthropic trabajar con el Departamento de Defensa está desatando un debate sobre si esta sentencia empuja a los tribunales a intervenir en la toma de decisiones sobre seguridad nacional.

La resolución, dictada el jueves por la noche por la jueza federal Rita Lin Biden en el Distrito Norte de California, suspende temporalmente la iniciativa general del Gobierno de excluir a la empresa mientras se resuelve el caso, aunque no obliga explícitamente al Pentágono a utilizar los servicios de Anthropic. La jueza también concedió al Gobierno una semana para presentar un recurso.

El subsecretario de Guerra, Emil Michael el día X que la resolución contenía «docenas de errores fácticos» y se había emitido «en un momento de conflicto», argumentando que «pretende socavar el papel (del presidente) como comandante en jefe» y perturbar la capacidad del departamento para llevar a cabo operaciones militares.

UN VALIENTE CORONEL DE LA MARINA SE ENFRENTÓ AL PENTÁGONO... Y PAGÓ EL PRECIO POR ELLO

Michael la administración sigue considerando a Anthropic un riesgo para la cadena de suministro mientras se resuelve la apelación, lo que indica que los funcionarios están cuestionando el alcance y el efecto de la orden judicial.

Lin dijo que la decisión del Pentágono de calificar a Anthropic como un riesgo para la seguridad nacional era «probablemente contraria a la ley, además de arbitraria y caprichosa».

«No hay nada en la ley vigente que respalde la idea orwelliana de que una empresa estadounidense pueda ser tachada de adversaria potencial y saboteadora de EE. UU. por expresar su desacuerdo con el Gobierno», dijo Lin.

«¿Puede un juez ordenar al Departamento de Guerra que utilice un proveedor que supone un riesgo para la seguridad? ¿No, pero también sí? El juez Lin (Biden de Distrito CaliforniaBiden , bajo la jurisdicciónBiden ) intenta impedir que el presidente Trump y el secretario Hegseth prohíban Anthropic. Pero ¿reconoce que pueden optar por no utilizarlo?», escribió un usuario de X, Eric , en la red social. 

El secretario de Defensa, Pete Hegseth, escucha en la reunión del Gabinete.

El secretario de Guerra, Pete Hegseth, figura como demandado en la demanda junto con otras personas. (Julia Nikhinson/AP)

Pete Hegseth señalando

El secretario de Guerra, Pete Hegseth, había advertido a Anthropic de que se enfrentaría a la rescisión de su contrato de 200 millones de dólares o sería considerada un riesgo para la cadena de suministro si no permitía que su plataforma de IA fuera aprobada para todos los usos legales.  (Joe Getty Images)

Otros calificaron la sentencia de «puro activismo judicial» y acusaron al juez de entrometerse en una decisión de seguridad nacional.

Pero quienes apoyan la decisión —entre ellos un grupo bipartidista de casi 150 jueces federales y estatales jubilados— afirman que el Gobierno se ha extralimitado, y advierten de que el uso por parte del Pentágono de la calificación de «riesgo para la cadena de suministro» parece haberse aplicado de forma indebida y podría coartar la libertad de expresión y la actividad empresarial legítima.

En una carta del 3 de marzo, el Pentágono notificó a Anthropic que sería considerada un riesgo para la seguridad nacional en la cadena de suministro. Esa designación ordenaba que ningún contratista, proveedor o socio que trabaje con el ejército de los Estados Unidos pudiera realizar actividades comerciales con Anthropic.

UN EJECUTIVO DE PALANTIR AFIRMA QUE LA IA PERMITE UNA PLANIFICACIÓN RÁPIDA DEL CAMPO DE BATALLA Y OPERACIONES DE ATAQUE DE ALTA VELOCIDAD POR PARTE DE EE. UU.

La batalla legal surge a raíz de una disputa más amplia entre el Pentágono y Anthropic sobre cómo se puede utilizar el sistema de IA de la empresa, Claude, en operaciones militares. Claude es el único sistema de IA comercial autorizado para uso clasificado. 

El secretario de Defensa, Pete Hegseth, había advertido a Anthropic de que se enfrentaría a la rescisión de su contrato de 200 millones de dólares, adjudicado en julio de 2025, o sería considerada un riesgo para la cadena de suministro si no permitía que su plataforma de IA fuera aprobada para todos los usos legales. 

Anthropic insistió en que no permitiría que Claude se utilizara para armas totalmente autónomas ni para la vigilancia masiva de los estadounidenses. 

Los responsables del Pentágono afirman que esos usos ya están prohibidos, y subrayan que los seres humanos siguen estando al mando en las decisiones letales y que el ejército no lleva a cabo vigilancia interna. También sostienen que las empresas privadas no pueden dictar cómo se utilizan sus sistemas en operaciones legales.

Lin señaló el alcance de las medidas —entre las que se incluyen una prohibición en todo el Gobierno y restricciones para los contratistas— y afirmó que no parecían «adaptadas a la preocupación por la seguridad nacional que se había planteado», sino que, por el contrario, «parecían un intento de paralizar a Anthropic».

CEO de Anthropic, CEO Amodei

Hegseth describió CEO Amodei y a Anthropic como «un ejemplo paradigmático de arrogancia» y «un caso de libro de cómo no se deben hacer negocios con el Gobierno de Estados Unidos». (SamyuktaBloomberg Getty Images)

Anthropic acogió con satisfacción la decisión y declaró en un comunicado: «Agradecemos al tribunal su rapidez y nos alegra que considere probable que Anthropic gane el caso por el fondo del asunto».

HAZ CLIC AQUÍ PARA DESCARGAR LA APP DE FOX NEWS

En una publicación del 27 de febrero en X, Hegseth describió CEO Amodei y a Anthropic como «un ejemplo paradigmático de arrogancia» y «un caso de libro de cómo no se deben hacer negocios con el Gobierno de Estados Unidos». 

OpenAI convertido en una alternativa clave, tras cerrar un acuerdo con el Pentágono para implementar sus modelos en sistemas clasificados a medida que se intensificaban las tensiones con Anthropic. 

Aun así, Anthropic no ha sido totalmente desplazado. Su sistema Claude sigue estando muy integrado en los procesos militares, y sustituirlo llevaría tiempo.

Imprimir Imprimir    Close Close

URL

https://www.foxnews.com/politics/judge-freezes-trump-admin-move-against-ai-firm-fueling-battle-over-security-authority

  • Home
  • Vídeo
  • Política
  • EE. UU.
  • Opinión
  • Entretenimiento
  • Tecnología
  • Ciencia
  • Salud
  • Viajes
  • Estilo de vida
  • Mundo
  • Deportes
  • Tiempo
  • Privacidad
  • Términos

Este material no puede ser publicado, difundido, reescrito ni redistribuido. © FOX News Network, LLC. Todos los derechos reservados. Las cotizaciones se muestran en tiempo real o con un retraso mínimo de 15 minutos. Datos de mercado proporcionados por Factset. Desarrollado e implementado por FactSet Digital Solutions. Declaración legal. Datos sobre fondos de inversión y ETF proporcionados por LSEG. No vender mi información personal - Nuevas condiciones de uso - Preguntas frecuentes