Este sitio web fue traducido automáticamente. Para obtener más información, por favor haz clic aquí.
Únete a Fox News para acceder a este contenido
Además de acceso especial a artículos selectos y otros contenidos premium con tu cuenta, de forma gratuita.
Al introducir tu correo electrónico y pulsar continuar, estás aceptando las Condiciones de uso y la Política de privacidad de Fox News', que incluye nuestro Aviso de incentivo económico.
Introduce una dirección de correo electrónico válida.
Al introducir tu correo electrónico y pulsar continuar, estás aceptando las Condiciones de uso y la Política de privacidad de Fox News', que incluye nuestro Aviso de incentivo económico.

OpenAI, la empresa matriz de la popular plataforma de chatbot de inteligencia artificial ChatGPT, modificó su política de uso para eliminar la prohibición de utilizar su tecnología con fines "militares y bélicos".

La política de uso de OpenAI prohibía específicamente el uso de su tecnología para "desarrollo armamentístico, militar y bélico" antes del 10 de enero de este año, pero esa política se ha actualizado desde entonces para desautorizar únicamente el uso que pudiera "causar daños a terceros", según un informe de Computer World.

"Nuestra política no permite que nuestras herramientas se utilicen para hacer daño a las personas, desarrollar armas, para la vigilancia de las comunicaciones, o para herir a otros o destruir propiedades", dijo un portavoz de OpenAI a Fox News Digital. "Sin embargo, hay casos de uso para la seguridad nacional que se alinean con nuestra misión. Por ejemplo, ya estamos trabajando con DARPA para impulsar la creación de nuevas herramientas de ciberseguridad que protejan el software de código abierto del que dependen las infraestructuras críticas y la industria". No estaba claro si estos casos de uso beneficiosos se habrían permitido bajo el epígrafe "militar" en nuestras políticas anteriores. Así que el objetivo de la actualización de nuestra política es aportar claridad y la posibilidad de mantener estos debates."

El silencioso cambio permitirá ahora a OpenAI colaborar estrechamente con el ejército, algo que ha sido un punto de división entre quienes dirigen la empresa.

LA INTELIGENCIA ARTIFICIAL Y LAS DECISIONES DE EE.UU. SOBRE ARMAMENTO NUCLEAR: ¿QUÉ IMPORTANCIA TIENE?

Un marine prueba un arma robótica

Marines estadounidenses del Grupo de Entrenamiento Táctico y Control de Ejercicios del Mando de Entrenamiento de la Fuerza Aéreo-Terrestre de los Marines y científicos de la Oficina de Investigación Naval realizan una prueba de concepto de la Cabra Robótica en el Centro de Combate Aéreo-Terrestre del Cuerpo de Marines, Twentynine Palms, California, el 9 de septiembre de 2023. (Foto del Cuerpo de Marines de EE.UU. por el soldado de primera Justin J. Marty)

Pero Christopher Alexander, director de análisis de Pioneer Development Group, cree que esa división dentro de la empresa se debe a un malentendido sobre cómo utilizarían realmente los militares la tecnología de OpenAI.

"A la facción perdedora le preocupa que la IA se vuelva demasiado poderosa o incontrolable, y probablemente malinterpreta la forma en que la OpenAI podría apoyar al ejército", dijo Alexander a Fox News Digital. "El uso más probable de OpenAI es para tareas administrativas y logísticas rutinarias, lo que representa un enorme ahorro de costes para el contribuyente. Me alegra am ver que la dirección actual de OpenAI comprende que las mejoras de las capacidades del Departamento de Defensa conducen a una mayor eficacia, lo que se traduce en menos vidas perdidas en el campo de batalla."

A medida que la IA ha ido creciendo, también lo han hecho las preocupaciones sobre los peligros que plantea la tecnología. El informe de Computer World señalaba un ejemplo de ello el pasado mes de mayo, cuando cientos de líderes tecnológicos y otras personalidades públicas firmaron una carta abierta en la que advertían de que la IA podría llegar a extinguirse y que era prioritario poner barreras para evitarlo.

"Mitigar el riesgo de extinción por la IA debe ser una prioridad mundial junto a otros riesgos a escala social, como las pandemias y la guerra nuclear", decía la carta.

El director general de OpenAI, Sam Altman, fue una de las figuras más destacadas del sector en firmar la carta, lo que pone de relieve el aparente deseo de larga data de la empresa de limitar el peligroso potencial de la IA.

Sam Altman habla en una conferencia

Sam Altman, Director General de OpenAI (Patrick T. Fallon/AFP vía Getty Images)

¿QUÉ ES CHATGPT?

Pero algunos expertos creen que ese movimiento era inevitable para la empresa, señalando que los adversarios estadounidenses , como China, ya están mirando hacia un futuro campo de batalla en el que la IA desempeñe un papel destacado.

"Probablemente se trate de una confluencia de acontecimientos. En primer lugar, la desautorización de la junta de la organización sin ánimo de lucro probablemente inclinó la balanza hacia el abandono de esta política. En segundo lugar, los militares tendrán aplicaciones que salven vidas, así como podrían quitarlas, y no permitir esos usos es difícil de justificar. Y por último, dados los avances de la IA con nuestros enemigos, estoy seguro de que el gobierno de EEUU ha pedido a los proveedores de modelos que cambien esas políticas. No podemos permitir que nuestros enemigos utilicen la tecnología y Estados Unidos no", declaró a Fox News Digital Phil Siegel, fundador del Centro de Simulación de Preparación Avanzada y Respuesta a Amenazas.

"Deberíamos preocuparnos de que, a medida que la IA aprende a convertirse en una máquina de matar y más avanzada en la guerra estratégica, dispongamos de salvaguardias para evitar que se utilice contra bienes nacionales[.]"

Samuel Mangold-Lenett, redactor de The Federalist, expresó un sentimiento similar, argumentando que la mejor manera de evitar un acontecimiento catastrófico a manos de un adversario como China es que Estados Unidos construya sus propias capacidades sólidas de IA para uso militar.

"Probablemente OpenAI siempre iba a colaborar con el ejército. La IA es la nueva frontera y es simplemente un desarrollo tecnológico demasiado importante como para no utilizarlo en defensa", dijo Mangold-Lenett a Fox News Digital. "El gobierno federal ha dejado clara su intención de utilizarla con este fin. El director ejecutivo Sam Altman ha expresado su preocupación por las amenazas que la IA supone para la humanidad; nuestros adversarios, concretamente China, tienen toda la intención de utilizar la IA en futuros esfuerzos militares que probablemente implicarán a Estados Unidos".

Pero tal necesidad no significa que el desarrollo de la IA no deba hacerse de forma segura, dijo el Director del Proyecto de Principios Estadounidenses, Jon Schweppe, quien declaró a Fox News Digital que los dirigentes y desarrolladores tendrán que seguir preocupándose por "el problema de la IA desbocada".

CHINA Y EE.UU. SE APRESURAN A LIBERAR SOLDADOS ROBOT AI ASESINOS MIENTRAS EL PODER MILITAR PENDE DE UN HILO: EXPERTOS

"No sólo tenemos que preocuparnos por las capacidades de IA de los adversarios, sino también por el problema de la IA fuera de control", dijo Schweppe. "Deberíamos preocuparnos de que, a medida que la IA aprende a convertirse en una máquina de matar y más avanzada en la guerra estratégica, dispongamos de salvaguardias para impedir que se utilice contra bienes nacionales; o incluso, en el escenario de pesadilla de la IA desbocada, que se vuelva contra su operador y lo involucre como adversario."

El Pentágono visto desde el aire

El Pentágono (Alex Wong/Getty Images)

Aunque es probable que el repentino cambio provoque una mayor división en las filas de OpenAI, algunos creen que la propia empresa debe ser observada con escepticismo a medida que avanza hacia posibles asociaciones militares. Entre ellos se encuentra Jake Denton, Investigador Asociado del Centro de Política Tecnológica de la Fundación Heritage, que señaló los modelos secretos de la empresa.

"Empresas como OpenAl no son guardianes de la moral, y su bonito envoltorio de ética no es más que una fachada para apaciguar a los críticos", declaró Denton a Fox News Digital. "Aunque la adopción de sistemas y herramientas avanzados de Al en nuestro ejército es una evolución natural, los opacos modelos de caja negra de OpenAl deberían hacernos reflexionar. Aunque la empresa pueda estar ansiosa por beneficiarse de futuros contratos de defensa, hasta que sus modelos sean explicables, su inescrutable diseño debería ser descalificador."

HAZ CLIC AQUÍ PARA OBTENER LA APLICACIÓN FOX NEWS

A medida que el Pentágono recibe más ofertas de empresas de IA para posibles asociaciones, Denton sostiene que la transparencia debe ser una marca importante de cualquier acuerdo futuro.

"A medida que nuestro gobierno explora aplicaciones de Al para la defensa, debemos exigir transparencia", dijo Denton. "Los sistemas opacos e inexplicables no tienen cabida en asuntos de seguridad nacional".