El CEO de Tech advierte de que la IA corre el riesgo de "extinción humana", mientras los expertos respaldan una pausa de seis meses

Expertos y líderes tecnológicos, entre ellos Elon Musk, firmaron una carta pidiendo una pausa en la investigación de la IA

Uno de los directores generales de tecnología que firmaron una carta pidiendo una pausa de seis meses en los laboratorios de IA que entrenan potentes sistemas advirtió que dicha tecnología amenaza con la "extinción humana".

"Como han afirmado muchos, incluidos los desarrolladores de estos modelos, el riesgo es la extinción humana", dijo Connor Leahy, director general de Conjecture, a Fox News Digital esta semana. Conjecture se describe a sí misma como una empresa que trabaja para que "los sistemas de IA sean limitables, predecibles y seguros".

Leahy es uno de los más de 2.000 expertos y líderes tecnológicos que han firmado esta semana una carta en la que piden que "todos los laboratorios de IA pongan inmediatamente en pausa durante al menos 6 meses el entrenamiento de sistemas de IA más potentes que el GPT-4". La carta está respaldada por Elon Musk, consejero delegado de Tesla y Twitter, así como por Steve Wozniak, cofundador de Apple, y argumenta que "los sistemas de IA con inteligencia competitiva humana pueden plantear profundos riesgos para la sociedad y la humanidad".

Leahy dijo que "un pequeño grupo de personas está construyendo sistemas de IA a un ritmo irresponsable, mucho más allá de lo que podemos seguir, y esto no hace más que acelerarse".

LA TECNOLOGÍA DE LA AI DESENFRENADA CORRE EL RIESGO DE PROPAGAR LA DESINFORMACIÓN, LO QUE EXIGE QUE LOS RESPONSABLES POLÍTICOS INTERVENGAN CON NORMAS: EXPERTOS

Elon Musk, consejero delegado de Tesla y SpaceX, habla en la Conferencia y Exposición SATELLITE en Washington, el lunes 9 de marzo de 2020. (AP Photo/Susan Walsh, Archivo)

"No entendemos estos sistemas, y los más grandes serán aún más potentes y difíciles de controlar. Ahora deberíamos hacer una pausa en los experimentos de mayor envergadura y reorientar nuestra atención hacia el desarrollo de sistemas de IA fiables y limitados."

Leahy se refirió a declaraciones anteriores del líder de investigación en IA, Sam Altman, que es el director general de OpenAI, el laboratorio que está detrás de GPT-4, el último modelo de aprendizaje profundo, que "muestra un rendimiento de nivel humano en varios puntos de referencia profesionales y académicos", según el laboratorio. 

ELON MUSK, COFUNDADOR DE APPLE, Y OTROS EXPERTOS EN TECNOLOGÍA PIDEN UNA PAUSA EN LOS "EXPERIMENTOS GIGANTES DE AI": "CARRERA PELIGROSA

Sam Altman habla en la Conferencia Digital del Wall Street Journal en Laguna Beach, California, el 18 de octubre de 2017. REUTERS/Lucy Nicholson/Foto de archivo. (REUTERS/Lucy Nicholson/Foto de archivo)

Leahy citó que, a principios de este año, Altman declaró al medio de comunicación de Silicon Valley StrictlyVC que el peor escenario posible en relación con la IA es "que se apaguen las luces para todos nosotros".

Leahy dijo que ya en 2015, Altman advirtió en su blog que "el desarrollo de la inteligencia sobrehumana de las máquinas es probablemente la mayor amenaza para la existencia continuada de la humanidad".

El argumento principal para detener la investigación sobre IA en los laboratorios es dar a los responsables políticos y a los propios laboratorios espacio para desarrollar salvaguardias que permitan a los investigadores seguir desarrollando la tecnología, pero no con la amenaza de trastornar la vida de personas de todo el mundo con desinformación. 

La página sobre el sitio web de OpenAI ChatGPT en un ordenador portátil dispuesto en el barrio de Brooklyn de la ciudad de Nueva York, el jueves 12 de enero de 2023. Gabby Jones/Bloomberg vía Getty Images (Gabby Jones/Bloomberg vía Getty Images)

"Los laboratorios de IA y los expertos independientes deben utilizar esta pausa para desarrollar y aplicar conjuntamente un conjunto de protocolos de seguridad compartidos para el diseño y desarrollo de IA avanzada que sean rigurosamente auditados y supervisados por expertos externos independientes", afirma la carta. 

ENTREVISTÉ A CHATGPT COMO SI FUERA UN HUMANO; ESTO ES LO QUE ME DIJO Y ME DIO ESCALOFRÍOS

Actualmente, EE.UU. tiene un puñado de proyectos de ley en el Congreso sobre IAmientras que algunos estados también han intentado abordar la cuestión, y la Casa Blanca publicó un proyecto de "Declaración de Derechos de la IA". Pero los expertos con los que habló Fox News Digital afirmaron que actualmente las empresas no se enfrentan a consecuencias por infringir tales directrices. 

Esta foto tomada el 23 de enero de 2023 muestra pantallas con los logotipos de OpenAI y ChatGPT. ChatGPT es una aplicación de software de inteligencia artificial conversacional desarrollada por OpenAI. (Foto de Lionel BONAVENTURE / AFP) (Foto de LIONEL BONAVENTURE/AFP vía Getty Images) (LIONEL BONAVENTURE/AFP vía Getty Images)

Cuando se le preguntó si la comunidad tecnológica se encuentra en un momento crítico para tirar de las riendas de la potente tecnología de IA, Leahy dijo que "sólo hay dos momentos para reaccionar ante una exponencial".

LA PAUSA PROPUESTA POR MUSK PARA LA INTELIGENCIA ARTIFICIAL SIGNIFICA QUE CHINA NOS ADELANTARÍA CON LA TECNOLOGÍA "MÁS POTENTE", SEGÚN UN EXPERTO

"Demasiado pronto o demasiado tarde. No estamos demasiado lejos de sistemas existencialmente peligrosos, y tenemos que volver a centrarnos antes de que sea demasiado tarde."

HAZ CLIC AQUÍ PARA OBTENER LA APLICACIÓN FOX NEWS

" Esperoque más empresasy desarrolladores se sumen a esta carta. Quiero dejar claro que esto sólo afecta a un pequeño sector del campo de la tecnología y de la IA en general: sólo un puñado de empresas se están centrando en la hiperescalabilidad para construir sistemas como Dios lo más rápidamente posible", añadió Leahy en su comentario a Fox News Digital. 

OpenAI no respondió inmediatamente a Fox News Digital en relación con los comentarios de Leahy sobre el riesgo de extinción humana de la IA. 

Carga más..