El CEO de Tech advierte de que la IA corre el riesgo de "extinción humana", mientras los expertos respaldan una pausa de seis meses
Expertos y líderes tecnológicos, entre ellos Elon Musk, firmaron una carta pidiendo una pausa en la investigación de la IA
{{#rendered}} {{/rendered}}
Uno de los directores generales de tecnología que firmaron una carta pidiendo una pausa de seis meses en los laboratorios de IA que entrenan potentes sistemas advirtió que dicha tecnología amenaza con la "extinción humana".
"Como han afirmado muchos, incluidos los desarrolladores de estos modelos, el riesgo es la extinción humana", dijo Connor Leahy, director general de Conjecture, a Fox News Digital esta semana. Conjecture se describe a sí misma como una empresa que trabaja para que "los sistemas de IA sean limitables, predecibles y seguros".
Leahy es uno de los más de 2.000 expertos y líderes tecnológicos que han firmado esta semana una carta en la que piden que "todos los laboratorios de IA pongan inmediatamente en pausa durante al menos 6 meses el entrenamiento de sistemas de IA más potentes que el GPT-4". La carta está respaldada por Elon Musk, consejero delegado de Tesla y Twitter, así como por Steve Wozniak, cofundador de Apple, y argumenta que "los sistemas de IA con inteligencia competitiva humana pueden plantear profundos riesgos para la sociedad y la humanidad".
{{#rendered}} {{/rendered}}
Leahy dijo que "un pequeño grupo de personas está construyendo sistemas de IA a un ritmo irresponsable, mucho más allá de lo que podemos seguir, y esto no hace más que acelerarse".
"No entendemos estos sistemas, y los más grandes serán aún más potentes y difíciles de controlar. Ahora deberíamos hacer una pausa en los experimentos de mayor envergadura y reorientar nuestra atención hacia el desarrollo de sistemas de IA fiables y limitados."
{{#rendered}} {{/rendered}}
Leahy se refirió a declaraciones anteriores del líder de investigación en IA, Sam Altman, que es el director general de OpenAI, el laboratorio que está detrás de GPT-4, el último modelo de aprendizaje profundo, que "muestra un rendimiento de nivel humano en varios puntos de referencia profesionales y académicos", según el laboratorio.
Leahy citó que, a principios de este año, Altman declaró al medio de comunicación de Silicon Valley StrictlyVC que el peor escenario posible en relación con la IA es "que se apaguen las luces para todos nosotros".
{{#rendered}} {{/rendered}}
Leahy dijo que ya en 2015, Altman advirtió en su blog que "el desarrollo de la inteligencia sobrehumana de las máquinas es probablemente la mayor amenaza para la existencia continuada de la humanidad".
El argumento principal para detener la investigación sobre IA en los laboratorios es dar a los responsables políticos y a los propios laboratorios espacio para desarrollar salvaguardias que permitan a los investigadores seguir desarrollando la tecnología, pero no con la amenaza de trastornar la vida de personas de todo el mundo con desinformación.
"Los laboratorios de IA y los expertos independientes deben utilizar esta pausa para desarrollar y aplicar conjuntamente un conjunto de protocolos de seguridad compartidos para el diseño y desarrollo de IA avanzada que sean rigurosamente auditados y supervisados por expertos externos independientes", afirma la carta.
{{#rendered}} {{/rendered}}
ENTREVISTÉ A CHATGPT COMO SI FUERA UN HUMANO; ESTO ES LO QUE ME DIJO Y ME DIO ESCALOFRÍOS
Actualmente, EE.UU. tiene un puñado de proyectos de ley en el Congreso sobre IAmientras que algunos estados también han intentado abordar la cuestión, y la Casa Blanca publicó un proyecto de "Declaración de Derechos de la IA". Pero los expertos con los que habló Fox News Digital afirmaron que actualmente las empresas no se enfrentan a consecuencias por infringir tales directrices.
Cuando se le preguntó si la comunidad tecnológica se encuentra en un momento crítico para tirar de las riendas de la potente tecnología de IA, Leahy dijo que "sólo hay dos momentos para reaccionar ante una exponencial".
{{#rendered}} {{/rendered}}
"Demasiado pronto o demasiado tarde. No estamos demasiado lejos de sistemas existencialmente peligrosos, y tenemos que volver a centrarnos antes de que sea demasiado tarde."
HAZ CLIC AQUÍ PARA OBTENER LA APLICACIÓN FOX NEWS
{{#rendered}} {{/rendered}}
" Esperoque más empresasy desarrolladores se sumen a esta carta. Quiero dejar claro que esto sólo afecta a un pequeño sector del campo de la tecnología y de la IA en general: sólo un puñado de empresas se están centrando en la hiperescalabilidad para construir sistemas como Dios lo más rápidamente posible", añadió Leahy en su comentario a Fox News Digital.
OpenAI no respondió inmediatamente a Fox News Digital en relación con los comentarios de Leahy sobre el riesgo de extinción humana de la IA.