Este sitio web fue traducido automáticamente. Para obtener más información, haz clic aquí.
¡Ahora puedes escuchar Fox News de Fox News !

El Pentágono ha dado a la empresa de inteligencia artificial Anthropic hasta el viernes para que levante las restricciones sobre el uso de su sistema de IA Claude por parte del ejército, advirtiéndole de que podría cancelar un contrato de 200 millones de dólares o tomar otras medidas punitivas si la empresa se niega, según múltiples fuentes familiarizadas con las conversaciones.

La disputa estalló después de que el Pentágono afirmara que Anthropic había preguntado si su producto se había utilizado en la operación militar de enero para capturar al líder venezolano Nicolás Maduro, de una manera que sugería que la empresa podría no estar de acuerdo si así fuera. El Pentágono insiste en que las empresas de IA deben permitir que sus productos se utilicen para todos los fines militares legales, sin supervisión ni aprobación por parte de la empresa. 

Anthropic niega haber discutido el uso de Claude para operaciones específicas y sugiere que sus límites son no permitir que sus productos se utilicen para armas totalmente autónomas o para la vigilancia masiva de los estadounidenses. 

UNA IMPORTANTE EMPRESA DE IA ALEGA QUE LABORATORIOS CHINOS UTILIZARON 24 000 CUENTAS FALSAS PARA ROBAR TECNOLOGÍA ESTADOUNIDENSE

El secretario de Guerra, Pete Hegseth, lanzó un ultimátum durante una reunión celebrada el martes en el Pentágono con CEO de Anthropic, CEO Amodei, a pesar de que Hegseth elogió la tecnología de la empresa y afirmó que el departamento quiere seguir trabajando con ella, según informaron fuentes cercanas.

Hegseth le dijo a Amodei que si la empresa no permitía que Claude se utilizara para todos los fines legales, podría enfrentarse a la rescisión de su contrato con el Pentágono, a la designación como riesgo para la cadena de suministro —lo que podría limitar su capacidad para trabajar con proveedores de defensa— o a la posible invocación de la Ley de Producción de Defensa para obligar a dar acceso a la tecnología, según fuentes familiarizadas con la reunión.

Claude es actualmente el único modelo avanzado de IA comercial de este tipo que opera dentro de las redes clasificadas del Pentágono, en virtud de un contrato de 200 millones de dólares adjudicado en el verano de 2025, lo que aumenta considerablemente lo que está en juego en la disputa.

Los funcionarios del Pentágono sostienen que el Departamento de Defensa no puede depender de una empresa privada que mantiene restricciones categóricas sobre ciertos usos de su tecnología, incluso si esos usos son legales. Durante la reunión, Hegseth comparó la situación con que se le dijera al ejército que no podía utilizar un avión específico para una misión, según una fuente familiarizada con el intercambio.

La disputa representa una primera prueba para determinar quién controla las barreras de seguridad de la IA avanzada dentro de los sistemas de defensa estadounidenses: las empresas privadas o el Pentágono. El resultado podría determinar la forma en que las fuerzas armadas se asocian con los principales desarrolladores de IA a medida que avanzan en la integración de herramientas de aprendizaje automático más potentes en las operaciones de seguridad nacional.

Anthropic, que se ha posicionado como una empresa de IA orientada a la seguridad, ha afirmado que sus políticas tienen como objetivo reducir el riesgo de uso indebido a medida que los sistemas avanzados de IA se vuelven más potentes.

Aplicaciones que aparecen en el teléfono dentro de una carpeta «IA».

Según se informa, el ejército estadounidense utilizó la herramienta de inteligencia artificial Claude, de Anthropic, durante la operación para capturar al líder venezolano Nicolás Maduro. (Kurt «CyberGuy» Knutsson)

Durante la reunión, Amodei repasó esas restricciones y argumentó que no interferirían con las operaciones legales y legítimas del Departamento de Guerra, según una fuente familiarizada con la reunión. 

Un alto funcionario del Pentágono afirmó que su postura «no tiene nada que ver con la vigilancia masiva ni con la selección autónoma de objetivos», ya que «siempre hay una persona involucrada y el departamento siempre cumple la ley». 

A pesar del aumento de las tensiones, los responsables de ambas partes indicaron que, en la actualidad, las armas totalmente autónomas no están contempladas en el marco de uso legal del departamento, lo que sugiere que el conflicto tiene tanto que ver con el control como con las aplicaciones en el campo de batalla.

El secretario de Defensa, Pete Hegseth, escucha en la reunión del Gabinete.

El secretario de Guerra Pete Hegseth aparece nombrado en la demanda, junto con otros acusados. (Julia Nikhinson/AP)

LA HERRAMIENTA DE IA CLAUDE AYUDÓ A CAPTURAR AL DICTADOR VENEZOLANO MADURO EN UNA OPERACIÓN MILITAR ESTADOUNIDENSE: INFORME

Durante la reunión del martes, Hegseth hizo referencia explícita al posible uso de la Ley de Producción de Defensa, la rescisión del contrato vigente de Anthropic y la posibilidad de designar a la empresa como un riesgo para la cadena de suministro si no acepta que sus productos se utilicen para todos los fines legales, según informaron fuentes.

Estas medidas reflejan dos formas muy diferentes de influencia federal. 

La designación de riesgo en la cadena de suministro podría restringir la capacidad de Anthropic para trabajar con proveedores y contratistas federales, al indicar que la empresa plantea problemas de fiabilidad o gobernanza, mientras que invocar la Ley de Producción de Defensa representaría un intento poco habitual de utilizar las autoridades de seguridad nacional para obligar a acceder a sistemas de IA de vanguardia considerados críticos para las necesidades de defensa.

Rescindir el contrato tendría consecuencias que irían más allá de poner fin a la relación con el proveedor. Dado que Claude está actualmente integrado en las redes clasificadas del Pentágono en virtud de un acuerdo por valor de 200 millones de dólares, la cancelación podría interrumpir los flujos de trabajo existentes y obligar al departamento a trasladar los sistemas sensibles a otro proveedor.

Dario Amodei, CEO Anthropic, habla durante la Anthropic Builder Summit en Bangalore, India, el 16 de febrero de 2026.

El Pentágono está evaluando a Anthropic, dirigida por Dario Amodei, arriba, como un «riesgo para la cadena de suministro».  (PriyanshuReuters 

HAZ CLIC AQUÍ PARA DESCARGAR LA APP DE FOX NEWS

Funcionarios del Pentágono también dijeron que el chatbot Grok AIMusk Elon ha aceptado permitir que sus productos se utilicen para todos los fines legales, incluida la posible integración en sistemas clasificados, y que otras empresas pioneras en IA están «cerca» de alcanzar acuerdos similares. 

Grok no respondió inmediatamente a una solicitud de comentarios.

Anthropic, en una declaración atribuida a un portavoz de la empresa, dijo: CEO de Anthropic, CEO Amodei, se reunió esta mañana con el secretario Hegseth en el Pentágono. Durante la conversación, Dario expresó su agradecimiento por el trabajo del Departamento y dio las gracias al secretario por su servicio. Continuamos las conversaciones de buena fe sobre nuestra política de uso para garantizar que Anthropic pueda seguir apoyando la misión de seguridad nacional del Gobierno en consonancia con lo que nuestros modelos pueden hacer de forma fiable y responsable».