¿Máquinas de desinformación? Las "alucinaciones" de los chatbot de IA podrían plantear peligros políticos, intelectuales e institucionales

La fiabilidad de toda una serie de instituciones se verá amenazada por el poder de la IA para desinformar.

Las inexactitudes vertidas por los chatbots de inteligencia artificial plantean peligros que amenazan ámbitos de la sociedad estadounidense como las elecciones y la educación, advierten expertos en tecnología de una amplia gama de sectores. 

Apodados "alucinaciones" en el mundo de la IA, los chatbots como ChatGPT y Bard de Google pueden presentar información inexacta como si fuera un hecho, algo de lo que los consumidores deben tener cuidado, según los expertos.

"Siempre debemos desconfiar de las 'alucinaciones' de los chatbot y de los prejuicios que puedan estar presentes en la tecnología", dijo a Fox News Digital James Czerniawski, analista político principal de Americans for Prosperity, con sede en Virginia.

LAS "ALUCINACIONES" DEL CHATBOT DE LA AI PERPETÚAN FALSEDADES POLÍTICAS Y PREJUICIOS QUE HAN REESCRITO LA HISTORIA DE AMÉRICA

"Si una tecnología está tergiversando inadvertida o intencionadamente ciertos puntos de vista, eso presenta una oportunidad potencial de engañar a los usuarios sobre hechos reales acerca de acontecimientos, posiciones de individuos o sus reputaciones en términos más generales".

Las amenazas proceden en gran medida de la capacidad de la IA para difuminar los límites entre realidad y ficción, y la "desinformación" es el mayor peligro al que se enfrentan los consumidores, según Christopher Alexander, director de comunicaciones de Liberty Blockchain, con sede en Utah. 

La IA puede reflejar los "valores y creencias" de quienes construyeron el algoritmo, dijo Alexander, y esos valores y creencias pueden no coincidir con los de los consumidores del chatbot

Palabras de Inteligencia Artificial en esta ilustración tomada el 31 de marzo de 2023. (REUTERS/Dado Ruvic/Ilustración)

Elon Musk abordó el riesgo político esta semana en una amplia entrevista con Fox News. 

"Aunque digas que la IA no tiene agencia, es muy probable que la gente utilice la IA como herramienta en las elecciones", dijo Musk al presentador Tucker Carlson.

"Siempre debemos desconfiar de las "alucinaciones" de los chatbot y de los prejuicios que puedan estar presentes en la tecnología". - James Czerniawski

"Y luego, ya sabes, si la IA es lo bastante inteligente, ¿están utilizando la herramienta o es la herramienta la que les utiliza a ellos? Así que creo que las cosas se están poniendo raras, y se están poniendo raras rápidamente", continuó Musk.

El poder de influir en la opinión a través de las plataformas de medios sociales ya se ha puesto de manifiesto en los últimos ciclos electorales, sobre todo en 2020, cuando se reveló que Twitter censuró historias sobre el ordenador portátil de Hunter Biden.

Tucker Carlson entrevista a Elon Musk en "Tucker Carlson Tonight". (Fox News)

Las alucinaciones de la inteligencia artificial podrían incitar una explosión exponencial de la capacidad de los gigantes tecnológicos para influir en la desinformación política, incluido el uso de "falsificaciones profundas" para retratar a las personas -para bien o para mal- en situaciones fabricadas artificialmente. 

ELON MUSK ADVIERTE DEL IMPACTO DE LA AI EN LAS ELECCIONES Y PIDE LA SUPERVISIÓN DE EEUU: 'LAS COSAS SE ESTÁN PONIENDO RARAS... RÁPIDO'

"Se parecen exactamente a Trump o Biden. Suenan exactamente como Trump o Biden", dijo el autor e intelectual israelí Yuval Noah Harari sobre las imágenes y vídeos de deep-fake. 

"Pero no puedes fiarte. Porque ahora sabes que pueden generar cualquier cosa".

"(La IA) podría estar programada para mentirnos con fines políticos". - Tucker Carlson

"El problema más profundo no es simplemente que (la IA) se vuelva autónoma y nos convierta a todos en esclavos, sino que controlará nuestra comprensión de la realidad y lo hará de una forma realmente deshonesta", dijo Carlson en su entrevista con Musk.

"Podría estar programado para mentirnos con fines políticos".

El historiador israelí y autor de "Sapiens" Yuval Noah Harari advirtió de que la fiabilidad de diversas instituciones se verá desafiada por la inteligencia artificial. (Fox News)

El mismo reto -la capacidad de separar los hechos de la ficción- se agravará en el mundo académico, donde tanto los educadores como los estudiantes podrían caer en la tentación de dejar que la inteligencia artificial piense por ellos. 

Del mismo modo que muchos jóvenes conductores ya no pueden desplazarse de un lugar a otro sin que el GPS les indique cómo hacerlo, los estudiantes corren el riesgo de ir a la universidad sin aprender, ni siquiera pensar. 

¿MÁQUINAS DE DESINFORMACIÓN? LOS CHATBOTS DE LA AI PUEDEN VOMITAR FALSEDADES, INCLUSO ACUSAR A PERSONAS DE DELITOS QUE NUNCA COMETIERON

Marc Beckman, profesor adjunto e investigador principal de la Universidad de Nueva York (NYU), dijo a Fox News Digital que siempre habrá una tensión en la relación entre un educador y un estudiante que quiere ser creativo, ejemplificada en el discurso que rodea a productos de IA como ChatGPT. 

Los profesores quieren dejar volar las alas de sus alumnos, pero también evitar que tomen atajos que puedan entorpecer su educación, dijo. Añadió que las restricciones impuestas al alumno curioso podrían tener un "efecto paralizador" sobre el ritmo acelerado de innovación necesario para competir y prosperar en un futuro próximo.

Sam Altman, director ejecutivo y cofundador de OpenAI, habla durante un evento en la sede de Microsoft en Redmond, Washington, el martes 7 de febrero de 2023. El chatbot ChatGPT de OpenAI está en el centro de la polémica sobre la fiabilidad de las plataformas de inteligencia artificial. (Chona Kasinger/Bloomberg vía Getty Images)

"Yo, ciertamente, como profesor, voy a crear ciertos mecanismos que esencialmente empujarán a mis alumnos a construir de forma natural una sólida profundidad de conocimientos y les darán esa base sin la tecnología", dijo Beckman.

La educación ya ha demostrado ser uno de los primeros campos de batalla de la inteligencia artificial. Los estudiantes han empezado a utilizar la IA como atajo para hacer el trabajo, y los educadores han respondido con sus propias herramientas de IA, destinadas a detectar trabajos plagiados o producidos por fuentes distintas de los estudiantes. 

La lucha contra la desinformación ya ha producido al menos un escándalo de trampas en los campus universitarios.

William Quarterman, estudiante de la Universidad de California Davis, fue señalado a principios de este mes por utilizar posiblemente un programa de IA para hacer trampas por un profesor que utilizaba otro programa de IA para cazar a los tramposos.

El logotipo de UC Davis con un partido de fútbol y ciclistas de fondo. Universidad de California en Davis, tomada el 2 de febrero de 2015. (Getty Images)

El estudiante quedó libre de culpa, pero sólo después de enfrentarse a las autoridades escolares por cargos de deshonestidad académica. 

Una de las formas de combatir la desinformación, según Harari, es reforzar la necesidad de instituciones dignas de confianza. 

"Entonces, ¿en qué puedes confiar? Confías en el editor. Confías en la institución". - Yuval Noah Harari

"Entonces, ¿en qué puedes confiar? Confías en el editor. Confías en la institución", dijo Harari.

Las alucinaciones también ofrecen esperanza para el futuro, en medio del temor a la desconfianza. 

Pueden "aprovecharse y utilizarse en nuestro beneficio", afirma Phil Siegel, fundador de CAPTRS, una organización sin ánimo de lucro que utiliza juegos de simulación e inteligencia artificial para mejorar la preparación de la sociedad ante las catástrofes.

TUCKER CARLSON: ¿ES LA INTELIGENCIA ARTIFICIAL PELIGROSA PARA LA HUMANIDAD? 

"Aunque las alucinaciones son malas cuando la precisión, la exactitud y la verdad son vitales -como en la arquitectura, la construcción o el periodismo, por ejemplo-, pueden utilizarse como una fuerza para el bien cuando el objetivo es la creatividad, mediante la presentación de lo imprevisto, o de lo inimaginado, en caso de que alguna vez se hagan realidad", dijo Siegel a Fox News Digital.

El logotipo de OpenAI dispuesto sobre un ordenador portátil en Pekín, China, el viernes 24 de febrero de 2023. El repunte de las acciones chinas de inteligencia artificial está mostrando nuevos signos de enfriamiento en medio de informes de los medios de comunicación sobre la prohibición por parte de las autoridades del acceso al servicio ChatGPT de OpenAI. (Bloomberg vía Getty Images)

"Disponer de una IA capaz de generar miles de escenarios posibles, que aún no se les han ocurrido a los humanos, puede ayudar a funcionarios y dirigentes a diseñar estrategias para afrontarlos antes de que sucedan".

El reto ahora, dicen los expertos, es garantizar que las promesas que plantea la inteligencia artificial superen los peligros potenciales. 

Y ahora mismo, mientras la humanidad lidia con el futuro de la IA, los retos son profundos.

HAZ CLIC PARA OBTENER LA APP DE FOX NEWS

Musk dijo en su entrevista con Carlson en Fox News : "La IA es más peligrosa que, por ejemplo, un mal diseño o mantenimiento de aviones o una mala producción de coches, en el sentido de que tiene el potencial, por pequeña que se considere esa probabilidad, pero no es trivial; tiene el potencial de la destrucción de la civilización".

Carga más..