Por qué la inteligencia artificial no puede resucitar a los muertos

La inteligencia artificial que produce vida artificial no es el paraíso

Este año se perfila como el año de la inteligencia artificial. ChatGPT se ha robado la mayoría de los titulares, pero es sólo la más infame de un amplio surtido de plataformas de IA. Una de las más recientes en llegar a la escena es HereAfter AI, una aplicación que puede "preservar los recuerdos con una aplicación que te entrevista sobre tu vida". El objetivo: "permitir que los seres queridos escuchen historias significativas charlando con tu yo virtual". El cielo, no en las nubes, sino en la nube. El Nirvana en tu iPhone. Reencarnación a través del silicio.

El problema es que no funcionará. De hecho, no puede funcionar.

A estas alturas, nadie duda de que podamos utilizar la IA para simular a una persona genérica, o incluso a una persona concreta. Pero esto sólo podría ser una simulación, no la persona real. La razón no tiene que ver con las limitaciones técnicas de la IA. Más bien tiene que ver con el hecho de que los seres humanos no somos almas incorpóreas o espíritus puros que pudieran cargarse en un ordenador en primer lugar. Nuestros cuerpos no son sólo realidades biológicas: son una parte crucial de lo que somos. 

Un par de ejemplos lo confirman: si eres bailarín, atleta o músico, sabes que cuando bailas un tango, haces un lanzamiento o ejecutas un arpegio, piensas con el cuerpo. Si intentas pensar con la cabeza ("primer paso ahí, así"), tropezarás. Por eso no sé bailar: lo pienso demasiado. Elimina el cuerpo poniéndome en una aplicación, y habrás eliminado lo que me hizo ser yo en primer lugar.

OPENAI DICE QUE YA ESTÁ DISPONIBLE LA FUNCIÓN CHATGPT QUE PERMITE A LOS USUARIOS DESACTIVAR EL HISTORIAL DE CHAT

Aunque fuera posible subir a los seres queridos a un ordenador, no está claro que fuera algo que quisiéramos. Cuando perdemos a un ser querido, haríamos cualquier cosa por tener a esa persona de vuelta con nosotros. Es un deseo humano natural. Pero piensa en lo que significaría no perder nunca a nadie, tener siempre a nuestros seres queridos en una aplicación, listos para ser consultados. No sólo nuestros padres y abuelos formarían parte de nuestras vidas, sino también varias generaciones de bisabuelos. Eso puede ser bueno; puede ser, bueno, extraño. Pero no hay duda de que sería distinto de todo lo que hemos vivido hasta ahora. Imagina las conversaciones en torno a la mesa de Acción de Gracias. ¿Interesantes? Sin duda. ¿Algo que deseamos profundamente? No tan claro.

También hay problemas para HereAfter AI que proceden directamente de cómo se crea la IA. Para crear una IA, uno de los primeros pasos es el "entrenamiento": alimentar el modelo con cantidades masivas de datos. A continuación, el modelo busca patrones en esos datos para transformarlos en algo nuevo. Cuantos más datos de entrenamiento, mejor será el modelo. Por eso Facebook y Twitter y los demás están hambrientos de datos: cuantos más datos recopilan, mejores se vuelven sus modelos. Y por eso ChatGPT es una forma tan poderosa de IA: se entrenó con cantidades masivas de datos. Es decir: toda la Wikipedia, millones de libros electrónicos e instantáneas de todo Internet.

He aquí el problema: al crear una IA que imite a los que hemos perdido, tendremos que entrenar al modelo. ¿Cómo lo hacemos? HereAfter AI tiene la respuesta: alimenta el modelo con hilos de texto, cartas personales, correos electrónicos, vídeos caseros: la lista continúa. Como con todos los modelos, más datos significan un modelo mejor. Cuanto más cerca estés de recuperar a un ser querido.

HAZ CLIC AQUÍ PARA RECIBIR EL BOLETÍN DE OPINIÓN

Sin embargo, ¿cuántos de nosotros, al intentar traer de vuelta a un ser querido, alimentaríamos a HereAfter AI con todas las cosas sarcásticas que dijo un ser querido? ¿Las veces que la abuela no nos concedió el beneficio de la duda? ¿Las veces que un cónyuge soltó teorías conspirativas, tergiversó palabras o simplemente se equivocó? ¿Las veces que un hijo mintió? Supongo que no hay mucho de eso. Entrénate en los momentos felices.

HAZ CLIC AQUÍ PARA OBTENER LA APLICACIÓN FOX NEWS

Pero un modelo, por supuesto, sólo es tan bueno como sus datos de entrenamiento. Cualquier "persona" que hayamos creado utilizando sólo datos felices no será más que un barniz brillante de un ser humano genuino. Todos tenemos baches y verrugas, fallos y defectos, prejuicios y puntos ciegos. Eso forma parte de ser humano. A veces nuestros defectos son nuestras partes más entrañables: mi familia me quiere porque sí y no a pesar de mis rarezas y limitaciones. Si eliminas los bultos y las verrugas, no habrás creado un ser humano. En lugar de eso, has creado una caricatura sacarina, vestida con una piel que se parece a la de alguien que conociste.

En la serie Harry Potter, Albus Dumbledore reflexiona sobre la búsqueda de la inmortalidad de Lord Voldemort: "los humanos tienen la habilidad de elegir precisamente aquellas cosas que son peores para ellos". La IA de HereAfter no es Lord Voldemort, pero ha cometido el mismo error. La vida en una aplicación -para ti o para tus seres queridos-no es el paraíso. Ni siquiera es algo que deseemos. ¿Qué es? Lo imposible. 

Carga más..