Este sitio web fue traducido automáticamente. Para obtener más información, por favor haz clic aquí.

Estados Unidos tendrá que decidir hasta qué punto quiere permitir el acceso público a la inteligencia artificial (IA), lo que podría afectar a las políticas generales de protección de datos, después de que Microsoft revelara que agentes estatales de países rivales utilizaban la tecnología para entrenar a sus agentes. 

"Vamos a tener que decidir si vamos a mantener estas cosas abiertas y de fácil acceso para todo el mundo, lo que significa para los malos y los buenos actores, o vamos a tomar un rumbo diferente", dijo a Fox News Digital Phil Siegel, fundador del Centro de Simulación de Preparación Avanzada y Respuesta a Amenazas, organización sin ánimo de lucro dedicada a la IA. 

OpenAI, en una entrada de blog escrita el miércoles, identificó a cinco actores "maliciosos" afiliados a Estados: Charcoal Typhoon y Salmon Typhoon, afiliados chinos; Crimson, afiliado iraní; Sandstorm, afiliado norcoreano; y Emerald Sleet y Forest Blizzard, afiliados rusos.

El post afirmaba que los grupos utilizaban los servicios de OpenAI para "consultar información de código abierto, traducir, encontrar errores de codificación y ejecutar tareas básicas de codificación". Los dos grupos afiliados a China, por ejemplo, supuestamente tradujeron documentos técnicos, depuraron código, generaron secuencias de comandos y estudiaron cómo ocultar procesos en distintos sistemas electrónicos. 

CÓMO LA AI PODRÍA MANIPULAR A LOS VOTANTES Y SOCAVAR LAS ELECCIONES AMENAZANDO LA DEMOCRACIA

En respuesta, OpenAI propuso un enfoque múltiple para combatir ese uso malintencionado de las herramientas de la empresa, que incluye "vigilar y desbaratar" a los actores malintencionados mediante nueva tecnología para identificar y cortar las actividades de los actores, una mayor cooperación con otras plataformas de IA para detectar actividades malintencionadas y una mayor transparencia pública. 

"Como ocurre con muchos otros ecosistemas, hay un puñado de actores malintencionados que requieren una atención sostenida para que todos los demás puedan seguir disfrutando de los beneficios", escribió OpenAI. "Aunque trabajamos para minimizar el posible uso indebido por parte de tales actores, no podremos detener todos los casos".

Sam Altman en el panel del FEM

Sam Altman, director ejecutivo de OpenAI, habla durante una mesa redonda en el tercer día del Foro Económico Mundial en Davos, Suiza, el jueves 18 de enero de 2024. (Stefan Wermuth/Bloomberg vía Getty Images / Getty Images)

"Al seguir innovando, investigando, colaborando y compartiendo, hacemos más difícil que los actores maliciosos pasen desapercibidos en todo el ecosistema digital y mejoramos la experiencia de todos los demás", insistió la empresa. 

Siegel argumentó que estos gestos, aunque bienintencionados, en última instancia no resultarán eficaces debido a la falta de infraestructura actual que les permita tener el impacto necesario. 

¿QUÉ ES LA INTELIGENCIA ARTIFICIAL (AI)?

"Vamos a tener que decidir si se trata de un sistema totalmente abierto... o si vamos a hacer que sea como el sistema bancario, en el que hay todas estas puertas en el sistema que impiden que ocurran estas cosas", dijo Siegel. 

"Yo am escéptico porque los bancos tienen todo un conjunto de infraestructuras y normativas detrás para hacer que estas cosas sucedan... y nosotros aún no lo tenemos", explicó. "Estamos pensando en ello y trabajando en ello, pero hasta que esas cosas no estén en marcha, esto no es culpa de Microsoft ni de Open A ni de Google".

Ilustración fotográfica de Bill Gates con un hombre utilizando un asistente de IA

Bill Gates, a la izquierda, y el director general de OpenAI, Sam Altman, debatieron recientemente la posible necesidad de un órgano de gobierno mundial que regule la tecnología de la IA. (Ian Jopson/Fox News)

"Sólo tenemos que movernos con rapidez para asegurarnos de que estas cosas se ponen en marcha para que puedan saber cómo van a aplicar este tipo de cosas", añadió. 

Microsoft, en otra entrada de blog, abogó por algunas medidas adicionales, concretamente la "notificación" para que otros proveedores de servicios de IA ayuden a señalar la actividad y los datos relevantes para que puedan actuar inmediatamente sobre los mismos usuarios y procesos. 

OPINIÓN: ASÍ ES COMO LA AI IMPULSARÁ LA ATENCIÓN SANITARIA PARA SATISFACER LAS EXPECTATIVAS DE LOS CONSUMIDORES

Aunque se trata de "defensas complementarias", Microsoft y OpenAI se comprometieron a proteger los valiosos sistemas de IA junto con la ayuda de MITRE para desarrollar contramedidas en el"panorama en evolución de las operaciones cibernéticas impulsadas por IA". 

"El ecosistema de amenazas de los últimos años ha revelado un tema constante de actores de amenazas que siguen las tendencias de la tecnología en paralelo con sus homólogos defensores", reconoció Microsoft. 

Hacker

Un hacker en un ordenador. (Cyberguy.com)

Siegel sugirió que los procesos descritos sólo darían cuenta de parte de la actividad que persiguen los actores maliciosos -de nuevo, debido a la falta de sistemas actuales para captar toda la gama de actividades-, ya que los hackers pueden utilizar técnicas de espionaje e incluso "otras formas de tecnología" para lograr sus objetivos. 

HAZ CLIC AQUÍ PARA OBTENER LA APLICACIÓN FOX NEWS

"Simplemente hay trabajo que hacer, y soy escéptico respecto a que la OpenAI de Microsoft pueda ir y hacerlo por su cuenta sin ayuda del gobierno o de otras agencias que ya han trabajado en tecnologías como ésa", dijo Siegel. 

El Departamento de Seguridad Nacional no respondió a una solicitud de comentarios de Fox News Digital en el momento de la publicación.