Este sitio web fue traducido automáticamente. Para obtener más información, por favor haz clic aquí.

Los desarrolladores de plataformas de inteligencia artificial podrían lanzar pronto una tecnología que permita a los usuarios hacer imágenes y vídeos que serían casi indistinguibles de la realidad.

Empresas como OpenAI, el desarrollador que está detrás de la popular plataforma ChatGPT, y otras empresas de IA están a punto de lanzar herramientas que permitirán la creación de vídeos falsos generalizados y realistas ya el año que viene, según un informe de Axios.

Según el informe, un arquitecto de IA dijo al medio que las pruebas privadas de algunas de las herramientas que pronto podrían estar en manos de los usuarios cotidianos revelaron que incluso los desarrolladores ya no podían distinguir las imágenes falsas de la realidad, algo que no creían que fuera posible tan pronto.

UNA NUEVA TECNOLOGÍA TIENE LA ESPELUZNANTE CAPACIDAD DE DETECTAR UN FUTURO INFARTO DE MIOCARDIO: ESTUDIO

Ilustración de hacker de IA

Los desarrolladores de plataformas de inteligencia artificial podrían lanzar pronto una tecnología que permita a los usuarios hacer imágenes y vídeos que serían casi indistinguibles de la realidad. (Fox News)

El rápido desarrollo de la tecnología tiene a muchos preocupados por el uso indebido que se pueda hacer de estas herramientas, especialmente cuando se lanzan nuevas capacidades el mismo año que se celebran elecciones presidenciales.

"Una de las mayores preocupaciones con el avance de la tecnología de inteligencia artificial es el flujo constante de vídeos deepfake, que se harán de famosos, políticos y otras personas influyentes. En manos de malos actores, esta tecnología podría tener repercusiones masivas en las elecciones, el comercio y la seguridad nacional", declaró a Fox News Digital Ziven Havens, director de políticas del Proyecto Bull Moose.

Havens señaló la posibilidad de que se generalicen "anuncios falsos de campaña" o incluso "declaraciones falsas de líderes mundiales", argumentando que tales cuestiones sólo serían "la punta del iceberg en cuanto a los peligros de esta tecnología".

Esa amenaza ha hecho que algunos líderes se planteen soluciones para dejar claro qué es real y qué es falso, incluyendo marcas de agua obligatorias en los contenidos generados por IA.

¿QUÉ ES LA INTELIGENCIA ARTIFICIAL (AI)?

Phil Siegel, fundador del Centro de Simulación de Preparación Avanzada y Respuesta a Amenazas, dijo a Fox News Digital que quienes pretendan regular la IA tendrán que considerar las posibles ramificaciones de la Primera Enmienda, señalando que, aunque la tecnología tiene capacidad para crear desinformación, parte de ese contenido generado por IA podría hacerse con intención puramente "ilustrativa".

La aplicación ChatGPT en la pantalla del smartphone con otros iconos

Empresas como OpenAI, desarrolladora de la plataforma ChatGPT, y otras empresas de IA están a punto de lanzar herramientas que permitirán la creación de vídeos falsos generalizados y realistas ya el año que viene, según un informe. (iStock)

"Incluso si pedimos a los 'buenos actores' que utilicen cosas como marcas de agua, la Primera Enmienda probablemente permite utilizar la mayoría de los contenidos satíricos e ilustrativos", afirma Siegel. "Ahora es más barato mostrar, por ejemplo, una viñeta en la que Joe Biden envejece ante tus ojos de forma muy convincente; aunque no sea cierta, per se, es ilustrativa hasta cierto punto y lleva una marca de agua o una identificación. En ese caso, depende del usuario asimilar o no el punto".

"El aumento de formas baratas y fáciles de hacer contenido utilizando IA aumentará la desinformación, y también aumentará la sátira y el contenido ilustrativo", continuó Siegel. "Los consumidores y los votantes tendrán que estar alerta ante todo esto. Los tribunales tendrán que estar atentos a todo esto cuando se presenten pruebas. Es la nueva normalidad de los medios y los contenidos".

Pero Samuel Mangold-Lenett, redactor de The Federalist, señaló que habrá formas de "mitigar los riesgos" asociados a las imágenes falsas generadas por IA, argumentando que las deepfakes pueden no ser "la mayor preocupación en lo que respecta a la IA".

"Suponen riesgos importantes para la seguridad pública y pueden dañar mucho la reputación de las personas, pero hay formas de mitigar los riesgos. Se pueden hacer cumplir las leyes tal como están escritas y se pueden crear otras nuevas", dijo Mangold-Lenett.

HAZ CLIC AQUÍ PARA VER MÁS NOTICIAS DE EE.UU.

Mangold-Lenett añadió que la mayor amenaza es que la IA haga que "la humanidad pierda el contacto con la realidad".

"Ese es uno de los grandes problemas en juego", afirma Mangold-Lenett. "De forma similar a cómo los motores de búsqueda han debilitado las habilidades de investigación de la gente, las sofisticadas tecnologías de IA tienen el potencial de debilitar las habilidades de pensamiento crítico".

Christopher Alexander, director de análisis de Pioneer Development Group, compartió un sentimiento similar, diciendo a Fox News Digital que los deepfakes son "preocupantes", pero también argumentó que estarán "lejos de ser la preocupación nº 1".

"La preocupación por las elecciones es especialmente risible porque parece derivarse de la idea de que los políticos humanos dicen la verdad", dijo Alexander. "Si es mentira, ¿a quién le importa si lo hace una máquina o el presidente?".

En cambio, Alexander argumentó que la mayor amenaza son las plataformas en las que se compartirá el contenido de la IA, afirmando que los medios sociales "simplifican los problemas complejos en caricaturas de la realidad y recompensan a la gente por ser escandalosa en lugar de comedida".

La vicepresidenta Kamala Harris, a la derecha, con el presidente Biden sentado firmando la orden ejecutiva

El presidente Biden firma una orden ejecutiva junto con el vicepresidente Harris durante un acto en la Sala Este de la Casa Blanca el 30 de octubre de 2023. (Al Drago / Bloomberg vía Getty Images)

HAZ CLIC AQUÍ PARA OBTENER LA APLICACIÓN FOX NEWS

El presidente Biden firmó recientemente una orden ejecutiva destinada a abordar algunas de las cuestiones en evolución que rodean a la IA, una medida que muchos consideraron un primer paso positivo. A pesar de ello, Havens cree que será necesario que el Congreso establezca mejores barandillas.

"Una solución importante sería que el Congreso ordenara el etiquetado de los contenidos generados por IA en Internet, y pronto", dijo Havens.