¿Máquinas de desinformación? Las "alucinaciones" de los chatbot de IA podrían plantear peligros políticos, intelectuales e institucionales
La fiabilidad de toda una serie de instituciones se verá amenazada por el poder de la IA para desinformar.
{{#rendered}} {{/rendered}}
Las inexactitudes vertidas por los chatbots de inteligencia artificial plantean peligros que amenazan ámbitos de la sociedad estadounidense como las elecciones y la educación, advierten expertos en tecnología de una amplia gama de sectores.
Apodados "alucinaciones" en el mundo de la IA, los chatbots como ChatGPT y Bard de Google pueden presentar información inexacta como si fuera un hecho, algo de lo que los consumidores deben tener cuidado, según los expertos.
"Siempre debemos desconfiar de las 'alucinaciones' de los chatbot y de los prejuicios que puedan estar presentes en la tecnología", dijo a Fox News Digital James Czerniawski, analista político principal de Americans for Prosperity, con sede en Virginia.
{{#rendered}} {{/rendered}}
"Si una tecnología está tergiversando inadvertida o intencionadamente ciertos puntos de vista, eso presenta una oportunidad potencial de engañar a los usuarios sobre hechos reales acerca de acontecimientos, posiciones de individuos o sus reputaciones en términos más generales".
Las amenazas proceden en gran medida de la capacidad de la IA para difuminar los límites entre realidad y ficción, y la "desinformación" es el mayor peligro al que se enfrentan los consumidores, según Christopher Alexander, director de comunicaciones de Liberty Blockchain, con sede en Utah.
{{#rendered}} {{/rendered}}
La IA puede reflejar los "valores y creencias" de quienes construyeron el algoritmo, dijo Alexander, y esos valores y creencias pueden no coincidir con los de los consumidores del chatbot.
Elon Musk abordó el riesgo político esta semana en una amplia entrevista con Fox News.
"Aunque digas que la IA no tiene agencia, es muy probable que la gente utilice la IA como herramienta en las elecciones", dijo Musk al presentador Tucker Carlson.
{{#rendered}} {{/rendered}}
"Siempre debemos desconfiar de las "alucinaciones" de los chatbot y de los prejuicios que puedan estar presentes en la tecnología". - James Czerniawski
"Y luego, ya sabes, si la IA es lo bastante inteligente, ¿están utilizando la herramienta o es la herramienta la que les utiliza a ellos? Así que creo que las cosas se están poniendo raras, y se están poniendo raras rápidamente", continuó Musk.
El poder de influir en la opinión a través de las plataformas de medios sociales ya se ha puesto de manifiesto en los últimos ciclos electorales, sobre todo en 2020, cuando se reveló que Twitter censuró historias sobre el ordenador portátil de Hunter Biden.
Las alucinaciones de la inteligencia artificial podrían incitar una explosión exponencial de la capacidad de los gigantes tecnológicos para influir en la desinformación política, incluido el uso de "falsificaciones profundas" para retratar a las personas -para bien o para mal- en situaciones fabricadas artificialmente.
{{#rendered}} {{/rendered}}
"Se parecen exactamente a Trump o Biden. Suenan exactamente como Trump o Biden", dijo el autor e intelectual israelí Yuval Noah Harari sobre las imágenes y vídeos de deep-fake.
"Pero no puedes fiarte. Porque ahora sabes que pueden generar cualquier cosa".
{{#rendered}} {{/rendered}}
"(La IA) podría estar programada para mentirnos con fines políticos". - Tucker Carlson
"El problema más profundo no es simplemente que (la IA) se vuelva autónoma y nos convierta a todos en esclavos, sino que controlará nuestra comprensión de la realidad y lo hará de una forma realmente deshonesta", dijo Carlson en su entrevista con Musk.
"Podría estar programado para mentirnos con fines políticos".
El mismo reto -la capacidad de separar los hechos de la ficción- se agravará en el mundo académico, donde tanto los educadores como los estudiantes podrían caer en la tentación de dejar que la inteligencia artificial piense por ellos.
{{#rendered}} {{/rendered}}
Del mismo modo que muchos jóvenes conductores ya no pueden desplazarse de un lugar a otro sin que el GPS les indique cómo hacerlo, los estudiantes corren el riesgo de ir a la universidad sin aprender, ni siquiera pensar.
Marc Beckman, profesor adjunto e investigador principal de la Universidad de Nueva York (NYU), dijo a Fox News Digital que siempre habrá una tensión en la relación entre un educador y un estudiante que quiere ser creativo, ejemplificada en el discurso que rodea a productos de IA como ChatGPT.
{{#rendered}} {{/rendered}}
Los profesores quieren dejar volar las alas de sus alumnos, pero también evitar que tomen atajos que puedan entorpecer su educación, dijo. Añadió que las restricciones impuestas al alumno curioso podrían tener un "efecto paralizador" sobre el ritmo acelerado de innovación necesario para competir y prosperar en un futuro próximo.
"Yo, ciertamente, como profesor, voy a crear ciertos mecanismos que esencialmente empujarán a mis alumnos a construir de forma natural una sólida profundidad de conocimientos y les darán esa base sin la tecnología", dijo Beckman.
La educación ya ha demostrado ser uno de los primeros campos de batalla de la inteligencia artificial. Los estudiantes han empezado a utilizar la IA como atajo para hacer el trabajo, y los educadores han respondido con sus propias herramientas de IA, destinadas a detectar trabajos plagiados o producidos por fuentes distintas de los estudiantes.
{{#rendered}} {{/rendered}}
La lucha contra la desinformación ya ha producido al menos un escándalo de trampas en los campus universitarios.
William Quarterman, estudiante de la Universidad de California Davis, fue señalado a principios de este mes por utilizar posiblemente un programa de IA para hacer trampas por un profesor que utilizaba otro programa de IA para cazar a los tramposos.
El estudiante quedó libre de culpa, pero sólo después de enfrentarse a las autoridades escolares por cargos de deshonestidad académica.
{{#rendered}} {{/rendered}}
Una de las formas de combatir la desinformación, según Harari, es reforzar la necesidad de instituciones dignas de confianza.
"Entonces, ¿en qué puedes confiar? Confías en el editor. Confías en la institución". - Yuval Noah Harari
"Entonces, ¿en qué puedes confiar? Confías en el editor. Confías en la institución", dijo Harari.
Las alucinaciones también ofrecen esperanza para el futuro, en medio del temor a la desconfianza.
{{#rendered}} {{/rendered}}
Pueden "aprovecharse y utilizarse en nuestro beneficio", afirma Phil Siegel, fundador de CAPTRS, una organización sin ánimo de lucro que utiliza juegos de simulación e inteligencia artificial para mejorar la preparación de la sociedad ante las catástrofes.
TUCKER CARLSON: ¿ES LA INTELIGENCIA ARTIFICIAL PELIGROSA PARA LA HUMANIDAD?
"Aunque las alucinaciones son malas cuando la precisión, la exactitud y la verdad son vitales -como en la arquitectura, la construcción o el periodismo, por ejemplo-, pueden utilizarse como una fuerza para el bien cuando el objetivo es la creatividad, mediante la presentación de lo imprevisto, o de lo inimaginado, en caso de que alguna vez se hagan realidad", dijo Siegel a Fox News Digital.
{{#rendered}} {{/rendered}}
"Disponer de una IA capaz de generar miles de escenarios posibles, que aún no se les han ocurrido a los humanos, puede ayudar a funcionarios y dirigentes a diseñar estrategias para afrontarlos antes de que sucedan".
El reto ahora, dicen los expertos, es garantizar que las promesas que plantea la inteligencia artificial superen los peligros potenciales.
Y ahora mismo, mientras la humanidad lidia con el futuro de la IA, los retos son profundos.
{{#rendered}} {{/rendered}}
HAZ CLIC PARA OBTENER LA APP DE FOX NEWS
Musk dijo en su entrevista con Carlson en Fox News : "La IA es más peligrosa que, por ejemplo, un mal diseño o mantenimiento de aviones o una mala producción de coches, en el sentido de que tiene el potencial, por pequeña que se considere esa probabilidad, pero no es trivial; tiene el potencial de la destrucción de la civilización".