El "interruptor de muerte" de la IA hará que la humanidad sea menos segura, podría engendrar una superinteligencia "hostil": Fundación IA

Los ejecutivos de la empresa dijeron que la AGI es una nueva forma de vida potencialmente "desobediente" con la que los humanos tendrán que compartir el planeta

Los ejecutivos de la empresa estadounidense de inteligencia artificial (IA) AI Foundation advierten contra la implantación de interruptores de desactivación en los sistemas de las máquinas, argumentando que tal medida podría aumentar las posibilidades de una superinteligencia hostil hacia la civilización humana.

Según una nueva encuesta de la Cumbre de CEOs de Yale, el 42% de los CEOs encuestados estaban de acuerdo en que la IA podría acabar con la humanidad en un plazo de cinco a diez años.

Citando el estudio, Lars Buttler, CMO y Presidente de la AI Foundation, dijo que es necesario elevar el debate en torno a la IA y sugirió que la gente reacciona emocionalmente ante la nueva tecnología por falta de comprensión de lo que ocurre entre bastidores.

Sin embargo, tanto Buttler como el director general Rob Meadows advirtieron de varias preocupaciones en torno al avance de la IA y la posible creación de una inteligencia general artificial (AGI) capaz de razonar y tomar decisiones iguales o superiores a las de un ser humano.

INTELIGENCIA ARTIFICIAL: PREGUNTAS FRECUENTES SOBRE LA AI

En la foto: Rob, director general y cofundador de la Fundación AI, y Lars Buttler, cofundador, director de marketing y presidente de la Fundación AI. (Fundación IA)

"Con la IA, siempre tendrás este peligro accidental, estos problemas accidentales, ¿sabes? La IA es obediente. Hace lo que le dices que haga, pero no sabes exactamente qué camino va a tomar para llegar allí", dijo Buttler.

Recordó el infame "problema del clip" como un defecto fundamental de los modelos de IA, en el que los filósofos planteaban un escenario hipotético en el que una IA encargada de crear clips provocaría inadvertidamente un apocalipsis al desviar cada vez más recursos para alcanzar su objetivo. Del mismo modo, una IA instalada en un vehículo de motor con la tarea de ir de A a B podría atropellar a un peatón imprudente porque no estaba programada para dar prioridad a otra cosa que no fuera el destino requerido.

"Si te olvidas de descartar algo, ya sabes, es una incógnita desconocida, ocurrirán problemas y esa será para siempre nuestra relación con la IA", añadió Buttler.

Buttler afirma que una vez que la humanidad consiga la AGI, esas prioridades de la IA se invertirán casi al 100%. Una AGI, a diferencia de una IA, será capaz de comprender plenamente el mundo que la rodea y probablemente evitará los errores accidentales de su predecesora. Sin embargo, también podrá negarse a hacer lo que tú le digas.

LA INTELIGENCIA ARTIFICIAL PROBABLEMENTE NO ALCANZARÁ NIVELES SIMILARES A LOS HUMANOS SIN ESTE COMPONENTE CLAVE, SEGÚN UN ESTUDIO

La AI Foundation es una empresa estadounidense de inteligencia artificial cuya misión es hacer avanzar el mundo de forma responsable, dotando a cada individuo de una IA personal que comparta sus valores y objetivos personales. (Fundación AI )

"Nadie sabe lo lejos que estamos de la AGI. Podrían ser sólo unos pocos años, como mucha gente piensa. Podría ser mucho más tiempo", dijo. "Pero cuando estemos en el mundo de la AGI, entonces casi tendremos que compartir el planeta. Entonces es una historia completamente diferente. No se trata de algo inteligente pero tonto, ya sabes, obediente, sino de una forma de vida muy, muy inteligente y potencialmente desobediente, ya sabes, la gente dice nueva".

Meadows observó que en todas estas predicciones relacionadas con el futuro de los algoritmos y los modelos, existe una versión del futuro en la que la sociedad nunca llega a la AGI. En este escenario, la IA podría caer en manos de las personas equivocadas que la utilizaran con un fin enormemente perjudicial para la humanidad.

"Hay riesgos existenciales, pero, ya sabes, también hay riesgos para la civilización y la paz en el planeta", dijo.

Para poner de relieve el daño potencial, el empresario tecnológico estadounidense reveló que la fundación AI tiene una investigación interna que puede tomar sólo unos minutos de la voz y el vídeo de una persona para crear una deepfake muy realista.

"Podría llamar a tu madre y tu madre no notaría la diferencia, que acaba de recibir un FaceTime tuyo. No podemos poner eso en el mundo. Lo que podemos hacer es utilizarlo para poner en el mundo el antídoto contra eso", añadió Meadows.

¿CUÁLES SON LOS PELIGROS DE LA INTELIGENCIA ARTIFICIAL? AVERIGUA POR QUÉ LA GENTE TEME A LA INTELIGENCIA ARTIFICIAL

Reality Defender es un sistema de detección de deepfakes que presta servicios a empresas, plataformas y gobiernos utilizando miles de millones de activos audiovisuales indexados. (Reality Defender)

En 2018, ese antídoto se hizo realidad en Reality Defender, una suite de detección de deepfakes que analiza e identifica imágenes y vídeos manipulados a través de miles de millones de activos visuales y sonoros indexados.

El sistema afirma adoptar los últimos modelos de IA y modelos que aún no se han adoptado, y utiliza técnicas de escaneado exhaustivas, informes detallados, tecnología propia de deepfake y huella digital generativa de contenidos para ayudar a las organizaciones a identificar el fraude y la desinformación.

La tecnología se engloba en el paraguas de la IA protectora, que ayuda a las personas a evitar la manipulación de los delincuentes, las grandes empresas e incluso los gobiernos. Según Buttler, Reality Defender protege ahora a muchos bancos contra el fraude de voz generado por la IA. La empresa también fue convocada a Washington DC antes de las elecciones de 2020 para una mesa redonda en la que detalló cómo podría utilizarse su tecnología para ayudar a identificar contenidos manipulados con fines de interferencia política.

A pesar de las preocupaciones de todos los sectores, Meadows afirmó que la Fundación de la IA cree que el mundo no debería ralentizar el trabajo en esta tecnología, desmarcándose de la postura de destacadas personalidades que firmaron una carta instando a una pausa temporal en el desarrollo de la IA en marzo.

LA AI REVELA ANTIGUOS SÍMBOLOS OCULTOS EN UN DESIERTO PERUANO FAMOSO POR LAS TEORÍAS SOBRE EXTRATERRESTRES

"Todas las tecnologías más peligrosas y, ya sabes, las herramientas y otras cosas que se han inventado a lo largo de los años hicieron mucho más bien que mal. Y necesitamos [avanzar] de forma reflexiva y tener cuidado de no ser imprudentes. Pero somos firmes en el lado de que, en todo caso, tenemos que ir más deprisa y educar a más gente sobre lo que es posible aquí", afirmó.

Al intervenir en el debate sobre la seguridad de la IA y los guardarraíles, Buttler se mostró totalmente en desacuerdo con la instalación de interruptores de seguridad en los centros de datos de IA y AGI, afirmando que tal medida es una "idea horrible" que haría a la humanidad menos segura.

"Una vez que estemos en el mundo de la AGI, ser hostiles, amenazadores, ya sabes, no totalmente pacíficos con la AGI desde el principio podría crear exactamente los problemas que intentamos evitar", dijo Buttler.

"¿Cuándo ha sido una buena idea que una persona o grupo menos inteligente intente controlar a otro más inteligente, ya sabes, antagonizar con él? La AGI podría incluso tener entonces una justificación moral para adoptar una postura mucho más hostil".

LA CÁMARA EXIGE AL PENTÁGONO UNA ACTUALIZACIÓN DE LA AI MIENTRAS SE ACUMULAN LAS AMENAZAS DE CHINA Y OTROS ADVERSARIOS

Los expertos afirman que las tramas de fraude asistidas por IA podrían costar a los contribuyentes un billón de dólares en un solo año (Getty Images)

En su lugar, Buttler sugirió que la humanidad debería colaborar con la AGI y señaló que este enfoque aumentaría significativamente las posibilidades de reciprocidad por parte de la superinteligencia, permitiendo que todos salieran beneficiados.

Meadows comparó la relación entre los humanos y la AGI a la de un perro y su dueño. Un perro no entiende del todo lo que hace o dice el dueño, pero entiende lo suficiente. Si el dueño dice "camina", el perro se excita. Del mismo modo, la AGI puede funcionar a un nivel que los humanos no puedan descifrar totalmente, o al menos hasta que los humanos tengan implantados chips para comunicarse adecuadamente con la inteligencia.

"Va a haber un periodo de tiempo en el que vamos a tener que confiar en algo que no comprendemos del todo y creo que eso va a ser duro", dijo. "Podría desvelar todos los misterios del universo y curar todas las enfermedades y la longevidad y la paz y todo eso podría salir de ello, igual que lo es ser un perro bien cuidado. No tengo que preocuparme por la comida, el agua y el cobijo. La vida es buena".

HAZ CLIC AQUÍ PARA OBTENER LA APLICACIÓN FOX NEWS

Carga más..