El jefe de OpenAI, Altman, describió lo que para él significa una IA "aterradora", pero ChatGPT tiene sus propios ejemplos

El director general de OpenAI testificó ante el subcomité del Senado para analizar posibles vías para regular la IA

El director ejecutivo de OpenAI, Sam Altman, testificó esta semana ante el Congreso en Washington D.C. sobre la regulación de la inteligencia artificial, así como sobre sus temores personales respecto a la tecnología y lo que para él significan unos sistemas de IA "aterradores".

Fox News Digital pidió al popular chatbot de OpenAI, ChatGPT, que también diera su opinión sobre ejemplos de sistemas de inteligencia artificial "aterradores", e informó de seis casos hipotéticos de cómo la IA podría convertirse en un arma o tener efectos potencialmente perjudiciales para la sociedad.

Al ser preguntado por Fox News Digital el martes tras su testimonio ante un subcomité judicial del Senado, Altman dio ejemplos de "IA aterradora" que incluían sistemas que podrían diseñar "patógenos biológicos novedosos".

"Una IA que pudiera piratear los sistemas informáticos", continuó. "Creo que todo esto da miedo. Estos sistemas pueden llegar a ser muy poderosos, por eso me alegraba de estar hoy aquí y por eso creo que esto es tan importante."

EL DIRECTOR GENERAL DE OPENAI, SAM ALTMAN, REVELA LO QUE LE "ASUSTA" DE LA AI

El director ejecutivo de OpenAI, Sam Altman, habla con la prensa tras su testimonio ante un subcomité judicial del Senado el 16 de mayo de 2023. (Fox News)

Entre algunos expertos y líderes tecnológicos, así como entre la opinión pública, se ha extendido el temor a que la inteligencia artificial pueda llegar a ser tan poderosa que acabe con la sociedad.

El "padrino de la inteligencia artificial", el informático Geoffrey Hinton, por ejemplo, advirtió el mes pasado que "no es inconcebible" que la IA pueda acabar "con la humanidad". Sus declaraciones se produjeron después de que dejara su trabajo en Google, afirmando que se arrepentía del trabajo de su vida debido a cómo se puede hacer un mal uso de la IA.

Sistema de armas autónomo avanzado

Cuando se le preguntó por ejemplos de "IA aterradora", ChatGPT respondió: "Estos [sistemas de armas autónomas], a menudo denominados "robots asesinos" o "armas autónomas letales", plantean problemas éticos y la posibilidad de un uso indebido o de consecuencias imprevistas". (Costfoto / Future Publishing vía Getty Images)

Tras los comentarios de Altman sobre la IA que da miedo y otros líderes tecnológicos que han dado la voz de alarma sobre el mal uso de la IA, Fox News Digital pidió el miércoles a ChatGPT que diera un ejemplo de "IA que da miedo".

"Un ejemplo de 'IA aterradora' es un sistema de armamento autónomo avanzado que puede identificar y atacar objetivos de forma independiente sin intervención humana", respondió el chatbot. "Estos sistemas, a menudo denominados 'robots asesinos' o 'armas autónomas letales', plantean problemas éticos y la posibilidad de un uso indebido o de consecuencias imprevistas".

ChatGPT dijo que "imaginemos un escenario en el que un sistema de armas con IA de este tipo esté programado con un conjunto de criterios para identificar y eliminar amenazas potenciales". Si tal sistema funcionara mal o acabara en manos de malos actores, "podría conducir a ataques indiscriminados, causando destrucción generalizada y pérdida de vidas humanas."

El chatbot añadió que éste era sólo un ejemplo de "cómo la IA, si no está adecuadamente controlada o guiada por valores humanos, puede tener implicaciones potencialmente alarmantes".

Deepfakes

Se ha extendido el temor entre algunos expertos y líderes tecnológicos, así como entre el público en general, de que la inteligencia artificial pueda llegar a tener tantos conocimientos y ser tan poderosa que pueda acabar con la sociedad. (Reuters / Dado Ruvic / Ilustración)

Fox News Digital pidió al chatbot que proporcionara otros ejemplos de "IA aterradora", y el segundo ejemplo proporcionado fue el de los "deepfakes", que a menudo consisten en editar vídeos o fotos de personas para que parezcan otra persona utilizando IA de aprendizaje profundo.

"Esta tecnología puede utilizarse indebidamente para difundir desinformación, chantajear o manipular la opinión pública. Los deepfakes tienen el potencial de socavar la confianza, crear malestar social y dañar la reputación", afirma ChatGPT.

Los deepfakes llegaron al radar del público en 2017, después de que un usuario de Reddit publicara pornografía de aspecto realista de famosos en la plataforma. Desde entonces, los deepfakes se han vuelto más utilizados y convincentes, y han dado lugar a vídeos falsos, como el del cómico Jerry Seinfeld protagonizando el clásico drama criminal de 1994 "Pulp Fiction" o el del rapero Snoop Dogg apareciendo en un falso infomercial que promocionaba lecturas de cartas del tarot.

LOS CRÍTICOS DICEN QUE LA AI PUEDE AMENAZAR A LA HUMANIDAD, PERO CHATGPT TIENE SUS PROPIAS PREDICCIONES CATASTROFISTAS

Vigilancia con IA

ChatGPT también enumeró los sistemas de "vigilancia impulsada por IA" utilizados por malos actores, como "regímenes autoritarios", como ejemplo de "IA aterradora". (Colección Smith / Gado / Getty Images / Archivo)

A continuación, el chatbot enumeró los sistemas de "vigilancia impulsada por IA" utilizados por malos actores, como "regímenes autoritarios", como ejemplo de "IA aterradora".

"El uso de la IA en los sistemas de vigilancia puede suscitar preocupaciones sobre la privacidad y las libertades civiles", dijo el chatbot. "Los algoritmos avanzados de reconocimiento facial combinados con cámaras de vigilancia pueden permitir el seguimiento y la identificación masiva de personas, lo que puede dar lugar a abusos por parte de regímenes autoritarios o a una vigilancia invasiva de los ciudadanos."

En EE.UU., algunos departamentos de policía y empresas privadas han empleado sistemas de reconocimiento facial basados en IA en un esfuerzo por frenar la delincuencia. El uso de esta tecnología ha tenido algunos fracasos notables, como un puñado de demandas de personas que afirmaron haber sido detenidas fraudulentamente cuando los sistemas identificaron erróneamente a un sospechoso en un caso de delito.

Robots de ingeniería social

La Inteligencia Artificial se enfrenta a un debate sobre la regulación. (iStock)

ChatGPT afirmó que los propios chatbots suponen una amenaza para la sociedad y las personas, argumentando que "los chatbots y los algoritmos de ingeniería social" pueden entrenarse para "manipular el comportamiento humano y explotar vulnerabilidades".

"Estos bots pueden utilizarse para ataques de phishing, difundir propaganda o influir en la opinión pública a través de plataformas de medios sociales, amplificando el potencial de desinformación y división social", afirma el chatbot.

Cuando se le pidió que diera más detalles sobre las amenazas que podrían plantear los chatbots, ChatGPT dijo que esa tecnología tiene la capacidad de imitar las conversaciones humanas e "interactuar de forma convincente con las personas". Los chatbots podrían entonces "explotar las vulnerabilidades psicológicas" de los humanos analizando sus respuestas, lo que podría llevar a que los humanos divulgaran información personal sensible o compraran información falsa de los bots, o los sistemas podrían manipular las "emociones humanas con fines maliciosos".

EL DIRECTOR GENERAL DE OPENAI, SAM ALTMAN, INVITA A LA REGULACIÓN FEDERAL DE LA INTELIGENCIA ARTIFICIAL

Desempleo y disparidad económica

Desempleados hacen cola para tomar café y pan en un comedor social de Nueva York hacia 1930. (FPG / Archivo Hulton / Getty Images)

ChatGPT argumentó que, a medida que los sistemas de inteligencia artificial se vuelvan más potentes, podrían ocupar puestos de trabajo típicamente ocupados por humanos, lo que podría ampliar la "desigualdad económica".

"Preocupa el desplazamiento de puestos de trabajo y el aumento de la desigualdad económica", afirma ChatGPT. "Los sistemas impulsados por la IA y los robots que sustituyen a los trabajadores humanos en diversas industrias podrían provocar importantes pérdidas de puestos de trabajo y trastornos sociales si no se gestionan adecuadamente o no van acompañados de medidas para reciclar y recualificar la mano de obra."

Un informe de Goldman Sachs de principios de este año concluyó que la IA generativa podría sustituir y afectar a 300 millones de puestos de trabajo en todo el mundo. Otro estudio de la empresa de recolocación y coaching ejecutivo Challenger, Gray & Christmas concluyó que la ChatGPT podría sustituir al menos 4,8 millones de puestos de trabajo estadounidenses.

Los informes han causado cierta ansiedad entre los trabajadores, incluso en los campos más probablemente afectados por la tecnología, como los representantes de atención al cliente, pero los defensores de la tecnología afirman que la proliferación de la IA podría conducir al desarrollo de nuevos puestos de trabajo y al fortalecimiento de la economía.

EL DIRECTOR GENERAL DE OPENAI, SAM ALTMAN, ADMITE SU MAYOR TEMOR RESPECTO A LA AI: "PUEDE SALIR BASTANTE MAL

Prejuicios y discriminación en la IA

ChatGPT afirmó que los sistemas de IA pueden perpetuar los prejuicios y la discriminación en función de cómo se les entrene, lo que podría amplificar "las desigualdades sociales existentes".

"Los sistemas de IA pueden perpetuar inadvertidamente sesgos presentes en los datos con los que se entrenan, dando lugar a resultados discriminatorios", afirma ChatGPT. "Por ejemplo, los algoritmos sesgados en los procesos de contratación o los sistemas policiales predictivos podrían perpetuar los sesgos sistémicos y el trato injusto de determinados grupos, amplificando las desigualdades sociales existentes."

ChatGPT a veces puede "alucinar", lo que significa que puede responder a una pregunta con una respuesta que parece correcta pero que en realidad es inventada. La preocupación por las alucinaciones y la parcialidad política de los sistemas de IA se ha intensificado en los últimos meses, y el mes pasado el gigante tecnológico Elon Musk declaró a Fox News que los programadores de Silicon Valley "están entrenando a la IA para mentir".

¿QUIÉN ES SAM ALTMAN? LÍDER TECNOLÓGICO DEL LABORATORIO DE INTELIGENCIA ARTIFICIAL OPENAI

ChatGPT a veces puede "alucinar", lo que significa que puede responder a una consulta con una respuesta que parece correcta pero que en realidad es inventada. (Getty Images / Archivo)

ChatGPT destacó en sus respuestas sobre la "IA aterradora" que, aunque sus ejemplos arrojan luz sobre las "posibles implicaciones negativas de la IA, también reflejan la importancia del desarrollo responsable, la regulación y las consideraciones éticas para mitigar tales riesgos y garantizar el uso beneficioso y seguro de las tecnologías de IA".

EL PRESIDENTE DE OPENAI, SAM ALTMAN, SE ENFRENTA A UN PANEL DEL SENADO MIENTRAS AUMENTA LA PRESIÓN PARA REGULAR LA AI 

Altman dijo durante la audiencia del Senado del martes que su mayor temor mientras OpenAI desarrolla la inteligencia artificial es que cause grandes trastornos perjudiciales para las personas.

El director ejecutivo de OpenAI, Sam Altman, toma asiento antes del comienzo de la audiencia del subcomité judicial del Senado sobre IA, el martes 16 de mayo de 2023. (Bill Clark / CQ-Roll Call Inc. vía Getty Images)

"Mi peor temor es que provoquemos -nosotros, el campo, la industria tecnológica - causemos un daño significativo al mundo", dijo Altman. "Creo que eso podría ocurrir de muchas formas distintas. Por eso fundamos la empresa".

"Creo que si esta tecnología sale mal, puede salir bastante mal, y queremos hacernos oír al respecto", añadió. "Queremos trabajar con el gobierno para evitar que eso ocurra".

HAZ CLIC AQUÍ PARA OBTENER LA APLICACIÓN FOX NEWS

Altman dijo durante la audiencia que le gustaría tener la oportunidad de trabajar con los legisladores estadounidenses en la elaboración de normativas para la IA que ayuden a evitar resultados no deseados con la tecnología.

Carga más..