Este sitio web fue traducido automáticamente. Para obtener más información, por favor haz clic aquí.

La sorprendente, aunque efímera, destitución del director general de OpenAI, Sam Altman, ha renovado la preocupación por el estado de la regulación de la inteligencia artificial, mientras el sector sigue creciendo a un ritmo vertiginoso.

"Ahora es el momento perfecto para crear guardarraíles de sentido común", dijo a Fox News Digital Christopher Alexander, director de análisis de Pioneer Development Group.

Los comentarios de Alexander se produjeron después de que el consejo de OpenAI tomara la semana pasada la decisión de echar a Altman, argumentando que había perdido la confianza con él, citando en un comunicado de prensa que no había sido "coherentemente sincero en sus comunicaciones". Desde entonces, OpenAI ha dado marcha atrás, anunciando a primera hora del miércoles en X que "ha llegado a un acuerdo de principio para que Sam Altman vuelva" como director general bajo un nuevo consejo de administración. 

"Estamos colaborando para resolver los detalles. Muchas gracias por vuestra paciencia", continuó OpenAI.

SAM ALTMAN PLANEA UNA NUEVA EMPRESA DE AI TRAS LA DESTITUCIÓN DE OPENAI

El entonces CEO de OpenAI, Sam Altman, en el Capitolio en mayo de 2023

Sam Altman, director ejecutivo y cofundador de OpenAI, habla durante una audiencia del Subcomité Judicial del Senado en Washington, D.C., el martes 16 de mayo de 2023. (Getty)

El anterior movimiento de OpenAI para expulsar a Altman se produjo cuando la creciente industria de la IA empieza a atraer más la atención de los gobiernos de todo el mundo, con el presidente Biden firmando recientemente una orden ejecutiva que pretende ser el primer paso en la regulación de la industria. Sin embargo, es cuestionable hasta qué punto puede llegar esa orden, mientras que el Congreso ha dado pocos pasos para codificar en ley cualquier regulación de la IA.

Esa falta de regulación ha hecho que aumente la preocupación a medida que una de las principales empresas de IA del país, que está detrás de la popular plataforma ChatGPT, cambia de dirección. En un artículo publicado en el New York Post a principios de esta semana, el profesor de filosofía de la Universidad de Niágara, Steve Petersen, afirmaba que la medida demostraba que "ya no se puede confiar en que las empresas de IA se vigilen a sí mismas; ya es hora de recurrir al largo brazo de la ley".

"Se define como la inteligencia al nivel humano o superior en todas las tareas cognitivas - y una vez que lo consigamos, es probable que sobrepase nuestro nivel de inteligencia en un santiamén", argumentó Petersen. "Si lo conseguimos, muchos pensadores sobrios coinciden en que podría ser una catástrofe existencial para la humanidad".

Alexander se mostró de acuerdo en que el riesgo que podría suponer la IA hace necesaria la regulación, aunque advirtió que la tecnología actual no está al nivel que muchos temen, pero algún día podría estarlo.

Pantalla ChatGPT en el portátil junto a la ventana

ChatGPT en un portátil. (Cyberguy)

EL COFUNDADOR DE OPENAI, GREG BROCKMAN, "CONMOCIONADO Y ENTRISTECIDO" POR LA MARCHA DEL DIRECTOR GENERAL, SAM ALTMAN

Alexander señaló el auge inicial de las redes sociales como un ejemplo de oportunidad perdida, argumentando que los responsables políticos no deberían cometer los mismos errores cuando se trate de la IA.

Sin embargo, algunos se han preguntado si la saga de Altman pone de manifiesto la necesidad de más regulación, y el fundador del Centro de Simulación de Preparación Avanzada y Respuesta a Amenazas, Phil Siegel, ha señalado que OpenAI ya ha superado los obstáculos normativos.

"La falta de un proceso de investigación y aplicación de políticas es alarmante para una empresa que tiene tanto impacto en nuestro ecosistema tecnológico en este momento", dijo Siegel a Fox News Digital. "Espero que los inversores se pongan firmes y exijan un Consejo más amplio, profesionalizado y responsable, quizá con un solo fundador, uno o dos activistas y varios Consejeros experimentados. No estoy seguro de que se pueda regular eso: habrían superado la mayoría de los obstáculos normativos que puedas imaginar".

El logotipo de OpenAI en la pantalla del smartphone

El logotipo de OpenAI ChatGPT se ve en un teléfono móvil en esta ilustración fotográfica. (Jaap Arriens/NurPhoto vía Getty Images)

HAZ CLIC AQUÍ PARA VER MÁS NOTICIAS DE EE.UU.

Mientras tanto, otros expertos temen que un exceso de regulación pueda frenar la innovación estadounidense de la tecnología de IA.

"Las luchas de liderazgo como la que acabamos de ver en OpenAI no son nuevas. El mundo empresarial las experimenta con regularidad", declaró a Fox News Digital Samuel Mangold-Lenett, redactor de The Federalist. 

"La mayor parte de nuestro conocimiento sobre la AGI sigue siendo teórico, y es probable que las normativas en este espacio inhiban el desarrollo y ralenticen el progreso mientras nuestros adversarios -en concreto China- siguen avanzando a toda máquina. Tenemos que ser cuidadosos y asegurarnos de que esta tecnología no supone una amenaza para la humanidad y de que se puede confiar en las personas que trabajan en ella, pero al igual que en el Proyecto Manhattan, es imposible encontrar el equilibrio perfecto de condiciones y personalidades." 

HAZ CLIC PARA OBTENER LA APP DE FOX NEWS

Sin embargo, Jon Schweppe, director de políticas del American Principles Project, argumentó que la terrible experiencia es un ejemplo de por qué es necesaria la regulación.

"Imagínate que decidiéramos dejar nuestro arsenal nuclear en manos de unos cuantos hermanos tecnológicos muy ideológicos", dijo Schweppe a Fox News Digital. "Eso es esencialmente lo que está ocurriendo con la IA ahora mismo. La IA es un arma tecnológica de destrucción masiva: supone una amenaza existencial para la humanidad tal como la conocemos. Obviamente se necesita algún nivel de supervisión antes de que sea demasiado tarde".

Nota del editor: Este artículo se ha actualizado para reflejar la noticia de última hora de que Altman será restituido como director general de OpenAI.