La inteligencia artificial, una nueva frontera en la guerra: "es más difícil demostrar lo que es real

Los expertos temen que Hamás pueda utilizar deepfakes para influir en la opinión pública

JERUSALÉN - En las últimas dos semanas, desde que el grupo terrorista palestino Hamás perpetró su mortífero ataque en el sur de Israel matando a unos 1.400 israelíes, existe el temor de que se abra un nuevo frente en la vieja guerra entre israelíes y palestinos: en el ámbito digital. 

Aunque las imágenes trucadas y las noticias falsas forman parte desde hace tiempo del arsenal bélico de Oriente Próximo, con la llegada hace menos de un año de herramientas generativas de inteligencia artificial (IA) fáciles de usar, parece muy probable que las imágenes deepfake pronto hagan su aparición también en el frente de guerra. 

"Hamás y otras facciones palestinas ya han hecho pasar imágenes truculentas de otros conflictos como si fueran víctimas palestinas de agresiones israelíes, así que esto no es algo exclusivo de este teatro de operaciones", dijo a Fox News Digital David May, director de investigación de la Fundación para la Defensa de las Democracias. 

Describió cómo, en el pasado, Hamás intimidó a los periodistas para que no informaran sobre el uso de escudos humanos en el enclave palestino, y escenificó imágenes de niños pequeños y osos de peluche enterrados entre los escombros. 

EL JEFE DEL FBI ADVIERTE DE QUE LOS TERRORISTAS PUEDEN DESATAR LA AI DE FORMAS NUEVAS Y ATERRADORAS

Hamás mató al menos a 1.400 personas en un ataque terrorista sorpresa que alcanzó a hombres, mujeres, niños y civiles de edad avanzada el 7 de octubre. (Getty)

"Hamás controla la narrativa en la Franja de Gaza", afirmó May, que sigue de cerca las actividades de Hamás, y añadió que "las imágenes generadas por IA complicarán un conflicto israelo-palestino ya plagado de desinformación".

Ya ha habido algunos informes de imágenes reutilizadas de diferentes conflictos, y la semana pasada, una desgarradora fotografía de un bebé llorando arrastrándose entre los escombros en Gaza se reveló como una creación de la IA. 

"Yo lo llamo noticias falsas actualizadas", dijo a Fox News Digital el Dr. Tal Pavel, fundador y director de CyBureau, un instituto con sede en Israel para el estudio de la ciberpolítica. "Ya conocemos el término fake news, que en la mayoría de los casos son contenidos visuales o escritos manipulados o colocados en un contexto falso. La IA, o deepfake, es cuando tomamos esas imágenes y les damos vida en videoclips".

¿QUÉ ES LA INTELIGENCIA ARTIFICIAL (AI)?

Pavel calificó la aparición de imágenes deepfake generadas por IA como "una de las mayores amenazas para la democracia".

Una vista muestra humo en la Franja de Gaza visto desde la frontera de Israel con la Franja de Gaza, en el sur de Israel el 18 de octubre de 2023. (REUTERS/Amir Cohen)

"No sólo en tiempos de guerra, sino también en otras épocas, porque cada vez es más difícil demostrar lo que es real o no", dijo. 

En la vida cotidiana, señaló Pavel, ya han salido a la luz casos de desinformación deepfake. Cita su uso por bandas de delincuentes que realizan fraudes con tecnología de alteración de la voz o durante campañas electorales en las que se manipulan vídeos y voces en off para cambiar la percepción pública. 

En la guerra, añadió, podría ser aún más peligroso.

"Es un terreno virgen y sólo estamos en las primeras fases de aplicación", dijo Pavel. "Cualquiera, con muy pocos recursos, puede utilizar la IA para crear fotos e imágenes asombrosas". 

Esta técnica ya se ha utilizado en la guerra que Rusia mantiene en Ucrania, según Ivana Stradner, otra investigadora de la Fundación para la Defensa de las Democracias especializada en el conflicto entre Ucrania y Rusia.  

El pasado mes de marzo, se publicó en las redes sociales y se compartió en las noticias ucranianas un vídeo falso y muy manipulado en el que el presidente Volodymyr Zelenskyy parecía instar a sus soldados a deponer las armas y rendirse a Rusia. Cuando se descubrió que era falso, el vídeo se retiró rápidamente. 

Se levanta humo tras los ataques israelíes en Gaza el martes. (Majdi Fathi/NurPhoto vía Getty Images)

"Los vídeos deepfake pueden ser muy realistas y, si están bien elaborados, son difíciles de detectar", afirma Stradner, que añade que las aplicaciones de clonación de voz están fácilmente disponibles y que las fotos reales se roban, cambian y reutilizan con facilidad. 

Dentro de Gaza, la arena es aún más difícil de navegar. Sin apenas periodistas creíbles de renombre actualmente en la Franja -Hamás destruyó el principal paso humano al enclave palestino durante su ataque del 7 de octubre y la prensa extranjera no ha podido entrar-, descifrar lo que es real y lo que es falso ya es un reto, con plataformas de IA fáciles de usar que podría hacerse mucho más difícil. 

CHINA Y EE.UU. SE APRESURAN A LIBERAR SOLDADOS ROBOT AI ASESINOS MIENTRAS EL PODER MILITAR PENDE DE UN HILO: EXPERTOS

Sin embargo, el Dr. Yedid Hoshen, que ha estado investigando las falsificaciones profundas y los métodos de detección, en la Universidad Hebrea de Jerusalén, dijo que estas técnicas aún no son totalmente infalibles. 

"Crear imágenes en sí mismo no es difícil, hay muchas técnicas disponibles ahí fuera y cualquiera razonablemente avispado puede generar imágenes o vídeos, pero cuando hablamos de deepfakes, estamos hablando de caras parlantes o de intercambio de caras", dijo. "Este tipo de imágenes falsas son más difíciles de crear y, para un conflicto como éste, tendrían que hacerse en hebreo o árabe, cuando la mayor parte de la tecnología sigue estando sólo en inglés".

Las fuerzas israelíes reconquistaron zonas cercanas a la Franja de Gaza que habían sido invadidas en una infiltración masiva de Hamás durante el fin de semana.

Además, dijo Hoshen, sigue habiendo signos reveladores que diferencian los visuales de IA de los reales. 

HAZ CLIC PARA OBTENER LA APP DE FOX NEWS

"Sigue siendo bastante difícil hacer que los visuales estén sincronizados con el audio, lo que puede no ser detectable con el ojo humano pero sí con técnicas automatizadas", dijo, y añadió: "Los pequeños detalles como las manos, los dedos o el pelo no siempre parecen realistas".

"Si la imagen parece sospechosa, entonces puede ser falsa", dijo Hoshen. "Todavía hay muchas cosas en las que la IA se equivoca".

Carga más..