Esta sitio web fue traducido automáticamente. Para obtener más información, haz clic aquí.
¡Ahora puedes escuchar Fox News de Fox News !

El Pentágono ha dado a la empresa de inteligencia artificial Anthropic hasta el viernes para que levante las restricciones sobre cómo el ejército puede utilizar su sistema de IA Claude, advirtiendo de que podría rescindir un contrato de 200 millones de dólares o tomar otras medidas punitivas si la empresa se niega, según varias fuentes al tanto de las conversaciones.

La polémica estalló después de que el Pentágono afirmara que Anthropic había preguntado si su producto se había utilizado en la operación militar de enero para capturar al líder venezolano Nicolás Maduro, de una forma que daba a entender que la empresa podría no estar de acuerdo si así fuera. El Pentágono insiste en que las empresas de IA deben permitir que sus productos se utilicen para todos los fines militares legales, sin supervisión ni aprobación por parte de la empresa. 

Anthropic niega haber hablado sobre el uso de Claude para operaciones concretas y afirma que sus límites no permiten que sus productos se utilicen para armas totalmente autónomas ni para la vigilancia masiva de los estadounidenses. 

UNA IMPORTANTE EMPRESA DE IA AFIRMA QUE LABORATORIOS CHINOS UTILIZARON 24 000 CUENTAS FALSAS PARA SUSTRAR TECNOLOGÍA ESTADOUNIDENSE

El secretario de Defensa, Pete Hegseth, lanzó un ultimátum durante una reunión celebrada el martes en el Pentágono con CEO de Anthropic, CEO Amodei, aunque al mismo tiempo elogió la tecnología de la empresa y afirmó que el departamento quiere seguir colaborando con ella, según informaron algunas fuentes.

Según fuentes que conocen los detalles de la reunión, Hegseth le dijo a Amodei que, si la empresa no permitía que se utilizara Claude para todos los fines legales, podría enfrentarse a la rescisión de su contrato con el Pentágono, a ser considerada un riesgo para la cadena de suministro —lo que podría limitar su capacidad para trabajar con proveedores del sector de la defensa— o a que se invocara la Ley de Producción de Defensa para obligarla a dar acceso a la tecnología.

Claude es actualmente el único modelo de IA comercial avanzado de este tipo que opera dentro de las redes clasificadas del Pentágono, en virtud de un contrato de 200 millones de dólares adjudicado en el verano de 2025, lo que eleva considerablemente lo que está en juego en esta disputa.

Los responsables del Pentágono sostienen que el Departamento de Defensa no puede depender de una empresa privada que impone restricciones categóricas a ciertos usos de su tecnología, aunque dichos usos sean legales. Durante la reunión, Hegseth comparó la situación con que le dijeran que el ejército no podía utilizar un avión concreto para una misión, según una fuente al tanto de lo ocurrido.

Esta disputa supone una primera prueba para ver quién controla los límites de la IA avanzada dentro de los sistemas de defensa estadounidenses: si son las empresas privadas o el Pentágono. El resultado podría marcar la forma en que el ejército colabore con los principales desarrolladores de IA a medida que avanza en la integración de herramientas de aprendizaje automático más potentes en las operaciones de seguridad nacional.

Anthropic, que se ha posicionado como una empresa de IA centrada en la seguridad, ha afirmado que sus políticas tienen como objetivo reducir el riesgo de uso indebido a medida que los sistemas avanzados de IA se vuelven más potentes.

Las apps que aparecen en el móvil dentro de una carpeta llamada «IA».

Según se informa, el ejército estadounidense utilizó la herramienta de IA «Claude», de Anthropic, durante la operación en la que capturaron al líder venezolano Nicolás Maduro. (Kurt «CyberGuy» Knutsson)

Según una fuente que estuvo presente en la reunión, durante la misma Amodei explicó esas restricciones y argumentó que estas no interferirían con las operaciones legales y legítimas del Departamento de Guerra. 

Un alto cargo del Pentágono afirmó que su postura «no tiene nada que ver con la vigilancia masiva ni con la selección autónoma de objetivos», ya que «siempre hay una persona involucrada y el departamento siempre respeta la ley». 

A pesar de que las tensiones iban en aumento, responsables de ambas partes señalaron que las armas totalmente autónomas no están contempladas actualmente en el marco de uso legítimo del departamento, lo que sugiere que el conflicto tiene tanto que ver con el control como con las aplicaciones en el campo de batalla.

El secretario de Defensa, Pete Hegseth, escucha en la reunión del Consejo de Ministros

El secretario de Guerra, Pete Hegseth, figura como demandado en la demanda, junto con otros acusados. (Julia Nikhinson/AP)

LA HERRAMIENTA DE IA CLAUDE AYUDÓ A CAPTURAR AL DICTADOR VENEZOLANO MADURO EN UNA OPERACIÓN MILITAR DE ASALTO DE EE. UU.: SEGÚN UN INFORME

Según algunas fuentes, durante la reunión del martes, Hegseth mencionó explícitamente la posible aplicación de la Ley de Producción de Defensa, la rescisión del contrato actual de Anthropic y la posibilidad de considerar a la empresa un riesgo para la cadena de suministro si no acepta que sus productos se utilicen para todos los fines legales.

Esas medidas reflejan dos formas muy diferentes de influencia federal. 

Una calificación de riesgo en la cadena de suministro podría limitar la capacidad de Anthropic para trabajar con proveedores y contratistas federales, al indicar que la empresa plantea problemas de fiabilidad o gobernanza, mientras que recurrir a la Ley de Producción de Defensa supondría un intento poco habitual de utilizar las competencias en materia de seguridad nacional para obligar a que se permita el acceso a sistemas de IA de vanguardia considerados críticos para las necesidades de defensa.

Rescindir el contrato tendría consecuencias que irían más allá de poner fin a la relación con el proveedor. Dado que Claude está actualmente integrado en las redes clasificadas del Pentágono en virtud de un contrato de 200 millones de dólares, la cancelación podría interrumpir los flujos de trabajo existentes y obligar al departamento a trasladar los sistemas sensibles a otro proveedor.

Dario Amodei, CEO Anthropic, habla durante la Anthropic Builder Summit en Bangalore ( India), el 16 de febrero de 2026.

El Pentágono está investigando a Anthropic, dirigida por Dario Amodei (en la foto de arriba), por considerarla un «riesgo para la cadena de suministro».  (PriyanshuReuters 

HAZ CLIC AQUÍ PARA DESCARGAR LA APP DE FOX NEWS

Funcionarios del Pentágono también han dicho que el chatbot Grok AI,Musk Elon Musk, ha aceptado que sus productos se utilicen para cualquier fin lícito, incluida una posible integración en sistemas clasificados, y que otras empresas pioneras en IA están «a punto» de llegar a acuerdos similares. 

Grok no respondió de inmediato a nuestra solicitud de comentarios.

Anthropic, en un comunicado atribuido a un portavoz de la empresa, declaró: CEO de Anthropic, CEO Amodei, se reunió esta mañana con el secretario Hegseth en el Pentágono. Durante la conversación, Dario expresó su reconocimiento por el trabajo del Departamento y agradeció al secretario su labor. Continuamos manteniendo conversaciones de buena fe sobre nuestra política de uso para garantizar que Anthropic pueda seguir apoyando la misión de seguridad nacional del Gobierno, en consonancia con lo que nuestros modelos pueden hacer de forma fiable y responsable».