Este sitio web fue traducido automáticamente. Para obtener más información, por favor haz clic aquí.
Actualizado
Únete a Fox News para acceder a este contenido
Además de acceso especial a artículos selectos y otros contenidos premium con tu cuenta, de forma gratuita.
Al introducir tu correo electrónico y pulsar continuar, estás aceptando las Condiciones de uso y la Política de privacidad de Fox News', que incluye nuestro Aviso de incentivo económico.
Introduce una dirección de correo electrónico válida.
Al introducir tu correo electrónico y pulsar continuar, estás aceptando las Condiciones de uso y la Política de privacidad de Fox News', que incluye nuestro Aviso de incentivo económico.
NUEVO¡Ahorapuedes escuchar los artículos de Fox News !

Con la reciente explosión de la IA, ahora cualquiera puede generar fácilmente imágenes, vídeos, audio y textos deslumbrantes con unas simples entradas. Aunque esta tecnología ofrece muchas ventajas asombrosas, también plantea peligros importantes. 

Una de las más perniciosas es la creación de deepfakes: contenidos muy realistas, pero manipulados o fabricados, que representan falsamente a personas reales haciendo o diciendo cosas que nunca hicieron. Nuestra capacidad para discernir los hechos de la ficción, junto con la propia democracia, están en el punto de mira.

En los últimos meses, los deepfakes han entrado en la corriente dominante como nunca antes. En febrero, se descubrieron anuncios en Facebook e Instagram que utilizaban vídeos de IA en los que aparecían falsamente Piers Morgan, Oprah Winfrey y otros famosos avalando cursos de autoayuda pseudocientíficos. 

En enero, Taylor Swift fue víctima de la pornografía deepfake, cuando falsas imágenes explícitas de la estrella del pop inundaron Twitter/X, cosechando millones de visitas. 

LA PORNOGRAFÍA GENERADA POR LA AI, INCLUIDOS LOS DESNUDOS FALSOS DE FAMOSAS, PERSISTE EN ETSY MIENTRAS LAS LEYES SOBRE DEEPFAKE "SE QUEDAN ATRÁS

deepfake foto ilustración

Un estudio publicado por el MIT Technology descubrió que el 96% de los vídeos deepfake en línea eran pornográficos y no consentidos, y que casi todos iban dirigidos a mujeres.

Los famosos no son ni mucho menos las únicas víctimas. Las personas normales, especialmente las mujeres y las niñas, son cada vez más el objetivo. Un estudio publicado por el MIT Technology descubrió que el 96% de los vídeos deepfake en línea eran pornográficos y no consentidos, y que casi todos iban dirigidos a mujeres. 

NBC News informó recientemente de que se descubrió a alumnos de secundaria de Beverly Hills, California, creando y haciendo circular fotos falsas de desnudos de sus compañeros. Se están produciendo incidentes similares en institutos de todo el país.

A medida que esta tecnología mejore rápidamente, Oren Etzioni, profesor de informática de la Universidad de Washington que investiga la detección de deepfakes, afirmó: "Vamos a ver un tsunami de estas imágenes explícitas generadas por IA".

Los deepfakes están poniendo en peligro la propia democracia. EE.UU., el Reino Unido y unas 70 naciones que abarcan casi la mitad de la población mundial tienen elecciones nacionales este año. 

A LOS ESTADOUNIDENSES LES PREOCUPA QUE ESTOS "ESPELUZNANTES" DEEPFAKES MANIPULEN A LA GENTE EN LAS ELECCIONES DE 2024, "INQUIETANTEMENTE FALSO

Éstas serán las primeras elecciones en las que la sofisticada tecnología deepfake sea fácilmente accesible no sólo a entidades gubernamentales y actores nefastos, sino a cualquier persona del mundo con un teléfono o un portátil.

Hemos visto avances de la interferencia deepfake en el ámbito político. En 2022, un vídeo deepfake viral mostraba falsamente al presidente ucraniano Volodymyr Zelenskyy proclamando su rendición. En 2023, las cuentas bot prochinas compartieron en Facebook y Twitter/X vídeos generados por IA que promocionaban al Partido Comunista Chino.

Aquí en casa, las elecciones presidenciales estadounidenses ya están siendo perturbadas. En enero, imágenes generadas por IA y compartidas en las redes sociales mostraron falsamente al ex presidente Trump con chicas jóvenes en el avión de Jeffrey Epstein. 

El mes pasado, días antes de las primarias presidenciales de New Hampshire, se hicieron miles de llamadas disuadiendo a los destinatarios de votar con el mensaje: "Tu voto marca la diferencia en noviembre, no este martes". Este mensaje, que imitaba la voz del presidente Biden, fue generado por IA. El autor que creó el audio falso dijo que le llevó sólo 20 minutos y le costó 1 dólar.

CÓMO LOS DEEPFAKES ESTÁN A PUNTO DE DESTRUIR LA RESPONSABILIDAD POLÍTICA

Nina Jankowicz, ex directora ejecutiva del grupo de trabajo sobre desinformación de Seguridad Nacional, advirtió recientemente de que el gobierno ruso ha empleado pornografía deepfake para empañar la reputación de mujeres políticas en Ucrania y Georgia. Advirtió que es probable que se desplieguen estrategias similares contra mujeres líderes en Occidente.

Los deepfakes también socavan la confianza en los medios auténticos. Renée DiResta, del Observatorio de Internet de Stanford, destacó cómo las afirmaciones de IA se utilizan ahora para desacreditar contenidos legítimos, citando como ejemplo la negación de vídeos reales de los atentados de Hamás del 7 de octubre.

Hasta ahora, los remedios o no existen o simplemente no son eficaces. Varios estados han promulgado leyes que obligan a etiquetar los deepfakes o prohíben los que representan falsamente a los candidatos. Se han propuesto algunos proyectos de ley federales, pero no se ha promulgado nada.

Los gigantes de las redes sociales, como Meta y YouTube, han implementado normas contra los medios manipulados que son deliberadamente engañosos, incluidos los deepfakes. La eficacia de estas políticas dista mucho de ser perfecta. A menudo, cuando se denuncian estos deepfakes, ya han llegado a millones de usuarios. A principios de febrero, la propia junta de supervisión de Meta criticó las normas de la empresa por "incoherentes". 

LA LEGISLATURA DE WISCONSIN APRUEBA LEYES QUE RESTRINGEN LOS MATERIALES DE CAMPAÑA DEEPFAKE PRODUCIDOS POR AI

El aumento de los deepfakes de IA se produce en un momento en que muchas empresas de redes sociales, en particular Twitter/X, están reduciendo sus esfuerzos por moderar los contenidos controvertidos, especialmente los relacionados con la política. Katie Harbath, ex directora de políticas públicas de Facebook, señaló que las empresas quieren evitar cada vez más la polémica por moderar en exceso, afirmando: "Muchas de ellas han dicho más bien: 'Probablemente sea mejor para nosotros no intervenir en la medida de lo posible'".

¿Qué se puede hacer ahora mismo? ¿Por dónde empezar?

En primer lugar, la IA útil puede utilizarse como herramienta contra la IA perjudicial. Es un mecanismo de aprendizaje. Se puede instruir a la IA para que se convierta en una mente maestra detectora de deepfakes, identificando patrones sutiles que los humanos podrían no advertir. 

Recientemente, algunas grandes empresas de medios sociales y de IA, como Meta, Google y OpenAI, han empezado a asociarse para poner marcas de agua y etiquetas a los contenidos generados por IA. Este tipo de colaboración entre plataformas es fundamental y debe reforzarse y ampliarse.

EL PENTÁGONO RECURRE A LA AI PARA DETECTAR DEEPFAKES

En segundo lugar, la perspectiva de sanciones legales y multas por difundir deepfakes serviría de importante elemento disuasorio. La gran mayoría de los estadounidenses está a favor de medidas federales, con un 84% que apoya la legislación que ilegalizaría la pornografía deepfake no consentida, según el Instituto de Política de Inteligencia Artificial. 

Deben establecerse leyes federales firmes que protejan explícitamente a las víctimas de deepfakes. Incluso unas normas y multas federales preliminares podrían reducir significativamente la difusión. 

En tercer lugar, las empresas de medios sociales deben rendir cuentas por promover contenidos deepfake. Actualmente, la Sección 230 protege a las empresas web de la responsabilidad por los contenidos generados por los usuarios. 

HAZ CLIC AQUÍ PARA VER MÁS OPINIONES DE FOX NEWS

Una reforma eficaz consistiría en responsabilizar a las empresas de los contenidos deepfake en cuya difusión participen activamente. Esto incluye los anuncios dirigidos o el refuerzo algorítmico, en los que el contenido se ofrece a usuarios que de otro modo no lo habrían visto. 

En la actualidad, las grandes redes sociales se benefician de que el controvertido contenido deepfake se haga viral. Aumenta la participación de los usuarios y los ingresos por publicidad, lo que conduce a una aplicación laissez-faire.

En cuarto lugar, se necesita urgentemente mejorar la alfabetización mediática. Los estudios demuestran que la educación sobre estos temas puede disminuir significativamente la persuasión general de los deepfakes y otras manipulaciones online. 

HAZ CLIC AQUÍ PARA OBTENER LA APLICACIÓN FOX NEWS

El Centro de Virtualidad Avanzada del MIT es un buen ejemplo que ofrece cursos en línea de alfabetización mediática para estudiantes universitarios y educadores. Iniciativas similares pueden ayudar a mejorar la alfabetización mediática y las habilidades de pensamiento crítico en la etapa inicial con estudiantes de secundaria y bachillerato.  

Se necesita un frente unido que combine esfuerzos tecnológicos, legislativos y educativos. Esto incluye una mayor colaboración entre las empresas de medios sociales y de IA, los responsables políticos, los educadores y los usuarios. Lo que está en juego no podría ser mayor. 

HAZ CLIC AQUÍ PARA LEER MÁS DE MARK WEINSTEIN