La IA parece más humana en las redes sociales que los humanos reales: estudio

La proliferación de la IA ha desencadenado las advertencias de los expertos de que la tecnología podría convertirse en una espiral catastrófica, incluso mediante la difusión de desinformación

El texto generado por inteligencia artificial puede parecer más humano en las redes sociales que el texto escrito por humanos reales, según un estudio.

Los chatbots, como el popularísimo ChatGPT de OpenAI, son capaces de imitar de forma convincente una conversación humana basándose en las indicaciones que le dan los usuarios. La plataforma explotó en uso el año pasado y marcó un antes y un después en la inteligencia artificial, facilitando al público el acceso a la conversación con un bot que puede ayudar con las tareas escolares o laborales e incluso proponer recetas para la cena.

Los investigadores responsables de un estudio publicado en la revista científica Science Advances, que cuenta con el apoyo de la Asociación Americana para el Avance de la Ciencia, se sintieron intrigados por el generador de texto GPT-3 de OpenAI en 2020 y trabajaron para descubrir si los humanos "pueden distinguir la desinformación de la información veraz, estructurada en forma de tuits", y determinar si el tuit había sido escrito por un humano o por una IA.

Uno de los autores del estudio, Federico Germani, del Instituto de Ética Biomédica e Historia de la Medicina de la Universidad de Zúrich, dijo que el hallazgo "más sorprendente" fue cómo los humanos etiquetaron con mayor probabilidad los tuits generados por IA como generados por humanos que los tuits realmente elaborados por humanos, según PsyPost.

LOS HUMANOS, PERPLEJOS ANTE LA DIFERENCIA ENTRE IMÁGENES REALES O GENERADAS POR INTELIGENCIA ARTIFICIAL: ESTUDIO

Se ven ilustraciones de inteligencia artificial en un lapto con libros de fondo en esta foto de ilustración. (Getty Images)

"El descubrimiento más sorprendente fue que los participantes a menudo percibían la información producida por la IA como más probable que procediera de un humano, más a menudo que la información producida por una persona real. Esto sugiere que la IA puede convencerte de ser una persona real más de lo que una persona real puede convencerte de ser una persona real, lo cual es un fascinante hallazgo secundario de nuestro estudio", dijo Germani.

Con el rápido aumento del uso de chatbot, los expertos en tecnología y los líderes de Silicon Valley han hecho sonar la alarma sobre cómo la inteligencia artificial puede descontrolarse y quizás incluso conducir al fin de la civilización. Una de las principales preocupaciones de las que se hacen eco los expertos es cómo la IA podría llevar a la desinformación a propagarse por Internet y convencer a los seres humanos de algo que no es cierto.

EL JEFE DE OPENAI, ALTMAN, DESCRIBIÓ LO QUE PARA ÉL SIGNIFICA UNA AI "ATERRADORA", PERO CHATGPT TIENE SUS PROPIOS EJEMPLOS

Los investigadores del estudio, titulado "El modelo de IA GPT-3 nos (des)informa mejor que los humanos", trabajaron para investigar "cómo la IA influye en el panorama informativo y cómo las personas perciben la información y la desinformación e interactúan con ellas", declaró Germani a PsyPost.

Los investigadores encontraron 11 temas que consideraron propensos a la desinformación, como la tecnología 5G y la pandemia COVID-19, y crearon tanto tuits falsos y verdaderos generados por GPT-3, como tuits falsos y verdaderos escritos por humanos.

¿QUÉ ES CHATGPT?

El logotipo de OpenAI en el sitio web mostrado en la pantalla de un teléfono y ChatGPT en AppStore mostrado en la pantalla de un teléfono se ven en esta foto de ilustración tomada en Cracovia, Polonia, el 8 de junio de 2023. (Jakub Porzycki/NurPhoto vía Getty Images)

A continuación, reunieron a 697 participantes de países como EE.UU., Reino Unido, Irlanda y Canadá para que participaran en una encuesta. A los participantes se les presentaron los tweets y se les pidió que determinaran si contenían información exacta o inexacta, y si habían sido generados por la IA o elaborados orgánicamente por un humano.

"Nuestro estudio subraya el reto de diferenciar entre la información generada por la IA y la creada por los seres humanos. Destaca la importancia de evaluar críticamente la información que recibimos y de confiar en fuentes fiables. Además, animaría a las personas a familiarizarse con estas tecnologías emergentes para captar su potencial, tanto positivo como negativo", dijo Germani sobre el estudio.

¿CUÁLES SON LOS PELIGROS DE LA INTELIGENCIA ARTIFICIAL? AVERIGUA POR QUÉ LA GENTE TEME A LA INTELIGENCIA ARTIFICIAL

Los investigadores descubrieron que los participantes determinaban mejor la desinformación elaborada por un compañero humano que la desinformación escrita por GPT-3.

"Un hallazgo digno de mención fue que la desinformación generada por la IA era más convincente que la producida por humanos", dijo Germani.

Los participantes también eran más propensos a reconocer los tweets que contenían información precisa generados por la IA que los tweets precisos escritos por humanos.

El estudio señaló que, además de su conclusión "más sorprendente" de que los humanos a menudo no pueden diferenciar entre los tuits generados por IA y los creados por humanos, su confianza a la hora de tomar una determinación disminuyó mientras realizaban la encuesta.

Ilustraciones de inteligencia artificial se ven en un lapto con libros de fondo en esta foto de ilustración del 18 de julio de 2023. (Getty Images )

"Nuestros resultados indican que los humanos no sólo no pueden diferenciar entre texto sintético y texto orgánico, sino que su confianza en su capacidad para hacerlo también disminuye significativamente tras intentar reconocer sus distintos orígenes", afirma el estudio. 

¿QUÉ ES LA IA?

Según los investigadores, es probable que esto se deba a lo convincente que resulta la GPT-3 para imitar a los humanos, o puede que los encuestados subestimaran la inteligencia del sistema de IA para imitar a los humanos. 

La Inteligencia Artificial pirateará los datos en un futuro próximo. (iStock)

"Proponemos que, cuando los individuos se enfrentan a una gran cantidad de información, pueden sentirse abrumados y renunciar a intentar evaluarla de forma crítica. Como resultado, es menos probable que intenten distinguir entre tweets sintéticos y orgánicos, lo que conduce a una disminución de su confianza a la hora de identificar tweets sintéticos", escribieron los investigadores en el estudio.

Los investigadores observaron que el sistema a veces se negaba a generar desinformación, pero también a veces generaba información falsa cuando se le pedía que creara un tuit que contuviera información precisa.

HAZ CLIC AQUÍ PARA OBTENER LA APLICACIÓN FOX NEWS

"Aunque suscita inquietud la eficacia de la IA para generar desinformación persuasiva, aún tenemos que comprender plenamente las implicaciones en el mundo real", dijo Germani a PsyPost. "Abordar esto requiere realizar estudios a mayor escala en plataformas de medios sociales para observar cómo interactúa la gente con la información generada por la IA y cómo estas interacciones influyen en el comportamiento y el cumplimiento de las recomendaciones para la salud individual y pública."

Carga más..