Los humanos no saben distinguir entre imágenes reales o generadas por IA: estudio

Es probable que a los humanos les cueste más diferenciar las fotos reales de las generadas por la IA

Los humanos han sido históricamente excelentes identificando caras y fotos en comparación con los ordenadores, pero la llegada de las fotos generadas por inteligencia artificial está lanzando una bola curva a los humanos, según un nuevo estudio que examina cómo perciben las personas las imágenes falsas frente a las reales.

Los expertos en tecnología vienen advirtiendo de que las imágenes hiperrealistas generadas por la IA podrían provocar la proliferación de información errónea en Internet y problemas de ciberseguridad. El mes pasado, por ejemplo, cundió el pánico después de que se hiciera viral una foto generada por IA que aparentemente mostraba una explosión en el Pentágono, lo que provocó una breve caída de la bolsa.

Investigadores australianos examinaron cómo perciben y diferencian los cerebros humanos las fotos realistas generadas por IA, utilizando tanto pruebas de comportamiento como experimentos de neuroimagen. El estudio incluyó el reclutamiento de 200 personas de Amazon Mechanical Turk, un sitio web de crowdsourcing propiedad de Amazon, para las pruebas de comportamiento, y de 22 personas de la Universidad de Sydney para participar en las pruebas de neuroimagen.

"A lo largo de la historia, se ha considerado a los humanos como la referencia en la detección de rostros. Hemos superado sistemáticamente a los ordenadores en el reconocimiento y la clasificación de caras (aunque esto está cambiando)", declaró a PsyPost Mic Moshel, autor del estudio.

¿QUIÉN TE VIGILA? AI PUEDE ACECHAR A VÍCTIMAS DESPREVENIDAS CON "FACILIDAD Y PRECISIÓN": EXPERTOS

Los expertos en tecnología vienen advirtiendo de que las imágenes hiperrealistas generadas por la IA podrían provocar la proliferación de información errónea en Internet y problemas de ciberseguridad. (Getty Images)

"Sin embargo, la aparición de la IA ha planteado un reto importante a la hora de determinar con fiabilidad si un rostro se ha generado artificialmente. Intrigados por este desarrollo, intentamos investigar cómo responden los humanos a los rostros hiperrealistas generados por IA, explorando específicamente la capacidad de diferenciar entre lo real y lo falso", añadió Moshel.

Los investigadores generaron las fotos, que mostraban caras, coches y dormitorios tanto realistas como irreales, con redes neuronales artificiales llamadas redes generativas adversariales (GAN). Las fotos reales utilizadas en el estudio procedían de conjuntos de entrenamiento utilizados para las GAN.

EL JEFE DE OPENAI, ALTMAN, DESCRIBIÓ LO QUE PARA ÉL SIGNIFICA UNA AI "ATERRADORA", PERO CHATGPT TIENE SUS PROPIOS EJEMPLOS

Para la prueba de neuroimagen, los investigadores utilizaron la electroencefalografía, que mide la actividad eléctrica del cerebro, mientras mostraban a los participantes fotos reales y falsas. Los participantes fueron capaces de determinar que las fotos irreales generadas por la IA no eran reales, pero les costó más descifrar las fotos realistas generadas por la IA de las reales.

Para la prueba de neuroimagen, los investigadores utilizaron la electroencefalografía, que mide la actividad eléctrica del cerebro, mientras mostraban a los participantes fotos reales y falsas. (Josep Lago/AFP vía Getty Images)

"Nuestros hallazgos revelan que los individuos pueden reconocer potencialmente los rostros generados por la IA con sólo una breve mirada. Sin embargo, distinguir las caras auténticas de las generadas por IA resulta más difícil. Sorprendentemente, las personas tienden con frecuencia a percibir erróneamente los rostros generados por IA como más auténticos que los reales", según el estudio, publicado en Vision Research.

¿CUÁLES SON LOS PELIGROS DE LA INTELIGENCIA ARTIFICIAL? AVERIGUA POR QUÉ LA GENTE TEME A LA INTELIGENCIA ARTIFICIAL

La parte de pruebas de comportamiento del estudio consistía en mostrar a los participantes fotos en rápida sucesión mientras determinaban si una imagen era real o falsa basándose en su impresión visual inmediata.

Los investigadores descubrieron que la actividad cerebral de los participantes podía identificar con precisión las fotos de caras generadas por la IA el 54% de las veces, mientras que identificar las fotos verbalmente sólo arrojaba un 37% de precisión.

"Mediante el examen de la actividad cerebral, identificamos una señal discernible responsable de diferenciar entre las caras reales y las generadas por IA. Sin embargo, la razón precisa por la que esta señal no se utiliza para guiar la toma de decisiones conductuales sigue siendo incierta", se lee en el estudio.

Los investigadores descubrieron que la actividad cerebral de los participantes podía identificar con precisión fotos de caras generadas por IA el 54% de las veces, mientras que identificar fotos verbalmente sólo arrojaba un 37% de precisión. (iStock)

Este año ya se han hecho virales imágenes realistas pero falsas de notables líderes políticos y mundiales, como fotos del ex presidente Donald Trump detenido y del Papa Francisco con un chubasquero blanco.

¿QUÉ AI UTILIZAMOS YA EN LA VIDA COTIDIANA?

"Cada vez es más posible generar rápidamente y sin esfuerzo imágenes, vídeos, escritos y multimedia falsos y realistas que son prácticamente indiscernibles de los reales. Esta capacidad sólo va a generalizarse y tiene profundas implicaciones para la ciberseguridad, las noticias falsas, el bypass de detección y las redes sociales", escribieron los investigadores del estudio.

Desde el lanzamiento de ChatGPT el año pasado, las empresas tecnológicas se han apresurado a construir sistemas de IA más potentes, pero los mismos líderes tecnológicos que están detrás de las plataformas también advierten de que la IA debe regularse para evitar la "extinción" humana.

Sam Altman, director general y cofundador de OpenAI, habla durante una audiencia del subcomité judicial del Senado en Washington, D.C., el 16 de mayo de 2023. (Getty)

Cientos de líderes tecnológicos, como Sam Altman, director general de OpenAI, y Demis Hassabis, director general de DeepMind, firmaron esta semana una carta abierta en la que advertían: "Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto a otros riesgos a escala social como las pandemias y la guerra nuclear".

Altman y Sundar Pichai, de Google, han pedido repetidamente en las últimas semanas que se regule la IA. Aunque señalan que esta poderosa tecnología tiene la oportunidad de cambiar positivamente el mundo, los riesgos potenciales de la tecnología son algo que los líderes se toman en serio.

HAZ CLIC AQUÍ PARA OBTENER LA APLICACIÓN FOX NEWS

"En términos de ventajas y desventajas potenciales, la superinteligencia será más poderosa que otras tecnologías a las que la humanidad ha tenido que enfrentarse en el pasado. Podemos tener un futuro mucho más próspero, pero tenemos que gestionar los riesgos para llegar a él", afirmaron Altman y otros directivos de OpenAI en una entrada de blog el mes pasado.

Carga más..