Ayudé a construir a Sophia el Robot. No debemos tener miedo a la IA por estas 5 razones

Una pausa en el desarrollo de la IA sería un paso muy equivocado

El Instituto del Futuro de la Vida ha emitido una petición para que se detenga el desarrollo del GPT-5 y de otros Grandes Modelos Lingüísticos (LLM) similares.

Sus temores son comprensibles, pero creo que son exagerados. He oído expresar temores similares relacionados con el advenimiento de la Inteligencia Artificial General de forma intermitente desde que introduje el término AGI en 2005, pero creo que una pausa sería un paso muy equivocado en la situación actual por varias razones.

Los LLM son limitados, y las amenazas que plantean son limitadas

Permíteme subrayar primero algo que se ha olvidado casi por completo en el pánico: Los Grandes Modelos Lingüísticos no pueden convertirse en Inteligencias Generales Artificiales.

Los LLM carecen por completo del tipo de arquitectura cognitiva necesaria para sustentar una AGI de nivel humano. La inmensa mayoría de los investigadores de IA lo saben. Los LLM ni siquiera superan a los modelos de aprendizaje automático más tradicionales en la mayoría de las tareas lingüísticas, y adolecen de numerosas limitaciones importantes, entre ellas: 

  • Incapacidad para distinguir la verdad de la "alucinación".
  • Creatividad limitada. Las LLM tienen un conjunto más amplio de capacidades que las anteriores IA estrechas, pero esta amplitud es limitada. No pueden razonar inteligentemente más allá de su base de experiencia. Sólo parecen ampliamente capaces porque su base de entrenamiento es realmente enorme y abarca casi todos los aspectos del quehacer humano.
  • Incapacidad para construir eficazmente largas cadenas de razonamiento.

Mi propio proyecto de desarrollo de AGIs, OpenCog Hyperon, utiliza LLMs para el reconocimiento de patrones y la síntesis, y los combina con otros métodos de IA como la inferencia lógica simbólica y el aprendizaje evolutivo. Muchos otros equipos de todo el mundo están llevando a cabo proyectos similares, utilizando LLM como componentes de AGIs. Pero los LLM por sí solos no son, ni pueden ser, una AGI. Por lo tanto, detener la investigación sobre los LLM no es detener la investigación sobre la AGI.

ELON MUSK DICE QUE DEBERÍA HABER "ALGÚN TIPO DE SUPERVISIÓN REGULADORA" DE LA AI

La IA puede curar tanto como dañar

Deberíamos detener el desarrollo tecnológico si Las desventajas son claras, ciertas e inminentes; Las ventajas son escasas o indistintas. Los LLM no cumplen ninguno de estos criterios.

La carta abierta no especifica ningún riesgo concreto, sino que divaga en una retórica nebulosa como: "¿Deberíamos arriesgarnos a perder el control de nuestra civilización?". Estos sentimientos vagos no justifican el cierre de una investigación potencialmente beneficiosa. Compáralos con los riesgos extremadamente directos de, por ejemplo, las armas nucleares de maletín o los patógenos modificados genéticamente.

Estos riesgos vagos se compensan con beneficios concretos. Considera riesgos como el cáncer, como el cambio climático, como el envejecimiento y la muerte, como el hundimiento global de niños. Son reales. Y una AGI con capacidad sobrehumana podría curar -y probablemente lo hará- el cáncer y las enfermedades mentales, prolongar la duración de la salud humana, resolver el cambio climático, desarrollar los viajes espaciales y acabar con el sufrimiento causado por la pobreza material.

A los catastrofistas les encanta centrarse en escenarios hipotéticos en los que la AGI causa la extinción humana, pero no hay ninguna razón para creer que sean realistas o probables. Se pueden inventar escenarios hipotéticos igualmente dramáticos en los que nos salve de la extinción. Y podemos extinguirnos sin ayuda de la AGI (por ejemplo, a causa de una guerra nuclear, una pandemia de bioingeniería o el impacto de un meteorito). ¿Por qué obsesionarse con las catástrofes cinematográficas de la IA en vez de con los beneficios concretos y reales de la IA que tenemos al alcance de la mano?

Detener el cambio no resuelve los problemas que conlleva el cambio

La tecnología siempre ha avanzado enredada con los aspectos jurídicos, políticos y económicos del mundo. Sólo en raras ocasiones es posible detener una pata del progreso mientras las otras marchan hacia adelante; una tecnología como la IA, con una definición difusa y una amplia variedad de aplicaciones prácticas inmediatas de impacto masivo, no es claramente uno de estos casos inusuales.

Tomemos el problema de la IA que conduce al desempleo. Si todo el trabajo se automatiza, surgirá una especie de economía post-laboral. Pero este mundo post-laboral no puede diseñarse en el vacío mientras las tecnologías de automatización están en pausa. Necesitamos que la tecnología se despliegue en la realidad, para que la sociedad pueda adaptarse a ella.

Una moratoria no es práctica

Será imposible garantizar el cumplimiento al 100% de una moratoria de la IA en todo el mundo. Algunos jugadores harán una pausa, y se quedarán atrás. Otros, quizás menos éticos, se adelantarán a toda velocidad.  

Hacer cumplir cosas más sencillas, como los acuerdos de la OMC, apenas ha resultado viable a escala mundial. Cosas como las prohibiciones de las pruebas nucleares o el desarrollo de armas biológicas funcionan tan bien como lo hacen porque estas tecnologías carecen de un enorme beneficio inmediato en términos de ayudar a los gobiernos a conseguir objetivos económicos y otros objetivos no militares. La IA es lo contrario en este sentido.

Resulta irónico observar que Elon Musk, una de las principales fuerzas impulsoras de la moratoria propuesta, ha ordenado recientemente a su empresa Twitter que adquiera un gran número de GPU, aparentemente para un proyecto LLM. La tensión entre la ansiedad y la oportunidad económica es evidente.

Deberíamos centrarnos en cómo construir de forma beneficiosa, no en dejar de construir del todo 

La gobernanza abierta y democrática de las AGI emergentes les ayudará a desarrollar valores democráticos y humanos, en la tradición de Linux o Wikipedia. Esta es la razón de ser de SingularityNET, un proyecto que fundé y dirijo desde 2017.

Es necesario inculcar los valores humanos en los datos de formación de la AGI, planteándolos en actividades basadas en valores como la educación, la atención médica, la ciencia y las artes creativas.

Creo que, con la gobernanza y la formación adecuadas, podemos diseñar máquinas que sean supercompasivas y superinteligentes, haciendo que los escenarios de IA benévola sean más probables. Averiguar la gobernanza y la formación adecuadas requerirá cierto trabajo, pero no hay razón para creer que detener el desarrollo de la IA durante 6 meses en la fase actual vaya a hacer que este trabajo vaya mejor o lleve a un mejor resultado.

HAZ CLIC AQUÍ PARA RECIBIR EL BOLETÍN DE OPINIÓN

Sophia AI, robot de aspecto humano desarrollado por Hanson Robotics Inc. en TOKEN2049 en Singapur, el jueves 29 de septiembre de 2022. El evento de criptomonedas durará hasta el 29 de septiembre. (Fotógrafo: Edwin Koo/Bloomberg vía Getty Images)

Los humanos y las AGIs deben avanzar juntos hacia la próxima era. Deberían hacerlo ayudándose mutuamente con sus conocimientos, su capacidad práctica y sus valores. El camino más sensato para avanzar implica desarrollar AGIs abiertas que estén al servicio de la humanidad, y crear metodologías de gobierno y formación adecuadas a medida que avanzamos.

HAZ CLIC AQUÍ PARA OBTENER LA APLICACIÓN FOX NEWS

En su libro de 2005 La Singularidad está cerca, Ray Kurzweil predijo una AGI de nivel humano para 2029, una predicción que ahora parece muy probable, quizá incluso pesimista. Una vez que esta AGI pueda hacer ingeniería tan bien como un buen equipo humano de IA, probablemente reescribirá su propio código base y diseñará por sí misma un nuevo hardware en un año o menos, creando una IA de próxima generación que se actualizará aún más, aún más rápido, y así sucesivamente en una espiral ascendente.

Si realmente estamos en los albores de la inteligencia sobrehumana, es obvio que se requiere precaución y cuidado. Pero no debemos asustarnos sólo porque el futuro parezca extraño y tenga ventajas y desventajas complejas. Ésa es la naturaleza de la revolución.

Carga más..