Desgarrador": Un experto en IA detalla los peligros de los deepfakes y las herramientas para detectar contenidos manipulados

Un experto en IA advierte a la gente de que adopte las mejores prácticas para determinar qué información es inventada y cuál es auténtica

Aunque algunos usos de los deepfakes son desenfadados, como el Papa con una chaqueta blanca de Balenciaga o una canción generada por IA con voces de Drake y The Weeknd, también pueden sembrar dudas sobre la autenticidad del audio y los vídeos legítimos. 

Los delincuentes se aprovechan de la tecnología para llevar a cabo campañas de desinformación, cometer fraudes y obstruir la justicia. A medida que la inteligencia artificial (IA) sigue avanzando, también lo hace la proliferación de contenidos falsos que, según advierten los expertos, podrían suponer una grave amenaza para diversos aspectos de la vida cotidiana si no se establecen los controles adecuados. 

Las imágenes, vídeos y audio manipulados por IA, conocidos como "deepfakes", se utilizan a menudo para crear representaciones convincentes pero falsas de personas y acontecimientos. Como los deepfakes son difíciles de detectar para el consumidor medio, empresas como Pindrop trabajan para ayudar a empresas y consumidores a identificar lo que es real y lo que es falso.

Las imágenes, vídeos y audio manipulados por IA, conocidos como "deepfakes", se utilizan a menudo para crear representaciones convincentes pero falsas de personas y acontecimientos. (iStock)

El cofundador y director general de Pindrop, Vijay Balasubramaniyan, dijo que su empresa estudia la seguridad, la identidad y la inteligencia en las comunicaciones de audio para ayudar a los principales bancos, compañías de seguros y proveedores de asistencia sanitaria del mundo a determinar si están hablando con un humano al otro lado de la línea. 

Balasubramaniyan dijo que Pindrop está a la vanguardia de la seguridad de la IA y ha analizado más de cinco mil millones de interacciones de voz, dos millones de las cuales identificaron como estafadores que utilizan la IA para intentar convencer a la persona que llama de que son humanos. 

Explicó que cuando llamas a una empresa con información sensible, como un banco, una compañía de seguros o un proveedor de asistencia sanitaria, verifican que eres tú haciéndote multitud de preguntas de seguridad, pero Pindrop sustituye ese proceso y en su lugar verifica a las personas basándose en su voz, su dispositivo y su comportamiento. 

¿CUÁNDO RESPONDERÁ LA INTELIGENCIA ARTIFICIAL A LOS CORREOS ELECTRÓNICOS? LOS EXPERTOS OPINAN SOBRE CÓMO AFECTARÁ LA TECNOLOGÍA AL TRABAJO

"Estamos viendo ataques dirigidos muy específicos", dijo. "Si soy el director general de una organización concreta, probablemente tengo mucho contenido de audio por ahí, contenido de vídeo por ahí, [así que los estafadores] crean un deepfake de esa persona para ir a por ella por sus cuentas bancarias [y] sus historiales médicos".

Aunque Pindrop se centra principalmente en ayudar a las grandes empresas a evitar las estafas de IA, Balasubramaniyan dijo que con el tiempo quiere ampliar su tecnología para ayudar al consumidor individual, porque el problema afecta a todos. 

Predice que las violaciones de audio y vídeo sólo van a ser más comunes porque si la gente tiene "toneladas de audio o toneladas de vídeo de una persona concreta, puedes crear su imagen mucho más fácilmente".

"Una vez que tienen una versión de tu audio o de tu vídeo, pueden empezar a crear versiones de ti", dijo. "Esas versiones de ti pueden utilizarse para todo tipo de cosas, para obtener información de cuentas bancarias, para obtener historiales médicos, para conseguir hablar con tus padres o con un ser querido que diga ser tú. Ahí es donde una tecnología como la nuestra es superimportante".

Explicó que la IA y los sistemas de aprendizaje automático (ML) funcionan aprendiendo de la información que ya existe y basándose en ese conocimiento. 

La IA y los sistemas de aprendizaje automático (AM) funcionan aprendiendo de la información que ya existe y basándose en ese conocimiento. (getty images)

"Cuantos más de ti haya por ahí, más probabilidades hay de crear una versión de ti y un humano no va a averiguar quién es", dijo. 

Dijo que hay algunos signos reveladores que pueden indicar que una llamada o un vídeo es una deepfake, como un lapso de tiempo entre el momento en que se hace una pregunta y se da una respuesta, lo que en realidad puede jugar a favor del estafador porque lleva a la persona al otro lado de la línea a creer que algo va mal. 

"Cuando un agente de un centro de llamadas está intentando ayudarte y no respondes inmediatamente, en realidad piensa: 'Oh, tío, esta persona está descontenta o no he dicho lo correcto'", explicó. "Por eso muchos de ellos empiezan a divulgar todo tipo de cosas".

"Lo mismo ocurre en el lado del consumidor cuando recibes una llamada de tu hija, de tu hijo, diciendo: 'Hay un problema, me han secuestrado' y entonces tienes esa pausa realmente larga", añadió. "Esa pausa es inquietante, pero en realidad es una señal de que alguien está utilizando un deepfake porque tiene que teclear la respuesta y el sistema tiene que procesarla". 

EL JEFE DE OPENAI, ALTMAN, DESCRIBIÓ LO QUE PARA ÉL SIGNIFICA UNA AI "ATERRADORA", PERO CHATGPT TIENE SUS PROPIOS EJEMPLOS

En un experimento realizado por Pindrop, se dieron a la gente ejemplos de audio y se les pidió que determinaran si les parecían auténticos. 

"Cuando lo hicimos con una amplia variedad de humanos, acertaron el 54% de las veces", dijo. "Eso significa que son un 4% mejores que un mono que lanzara una moneda".

A medida que se hace más difícil determinar quién es humano y quién es una máquina, es importante adoptar una tecnología que permita hacer esa determinación, argumentó Balasubramaniyan. 

"Pero lo que más miedo me da es nuestra democracia", añadió. "Nos acercamos a un ciclo electoral el año que viene, y estás viendo anuncios, estás viendo imágenes".

Por ejemplo, el candidato principal de una campaña podría ser difamado por una serie de deepfakes o podría haber contenido auténtico que ponga a un candidato bajo una mala luz, pero pueden negarlo utilizando la IA como chivo expiatorio. 

En vísperas de su reciente comparecencia en Nueva York, se hicieron virales en Internet falsificaciones de la ficha policial del ex presidente Trump, así como fotos falsas en las que aparecía resistiéndose a ser detenido.

"Si algo es demasiado bueno para ser verdad o demasiado sensacionalista, piénsatelo dos veces", dijo. "No reacciones inmediatamente... la gente se exalta demasiado o reacciona demasiado ante algo concreto en el momento inmediato".

LOS CRÍTICOS DICEN QUE LA AI PUEDE AMENAZAR A LA HUMANIDAD, PERO CHATGPT TIENE SUS PROPIAS PREDICCIONES CATASTROFISTAS

Balasubramaniyan dijo que la gente debe ser cada vez más escéptica sobre lo que oye y ve, y advirtió que si una voz parece robótica, un vídeo está entrecortado, hay ruido de fondo, pausas entre preguntas o el sujeto no parpadea, deben actuar con precaución y suponer que se trata de un deepfake. 

Dijo que esta precaución añadida es especialmente importante si el vídeo o el mensaje apela a tus emociones, lo que puede tener consecuencias "desgarradoras" si un ser querido recibe una llamada sobre ti o si se coacciona a tu abuelo para que entregue el dinero que tanto le ha costado ganar, así como en los casos en que se utiliza la imagen y semejanza de una mujer para generar imágenes o vídeos falsos de gran calado.

Algunas de las empresas con más éxito en el negocio se aprovechan de la compañía de la IA para generar falsos novios, o más a menudo, según Balasubramaniyan, falsos novios con determinadas cualidades o capacidades. 

Balasubramaniyan argumentó que, a medida que se hace más difícil determinar quién es humano y quién es máquina, es importante adoptar una tecnología que permita hacer esa determinación. (Foto de MARCO BERTORELLO/AFP vía Getty Images)

"Porque no sólo se están creando deepfakes que son deepfakes de ti, sino que además se están creando deepfakes o identidades sintéticas que no tienen nada que ver, pero que tienen cierto parecido con la humana", advirtió. "Hay que estar alerta ante ambas cosas".

Balasubramaniyan se remite a menudo a la creación de Internet para calmar muchas de las preocupaciones que la gente tiene sobre la IA y explicó que simplemente necesitamos más tiempo para mejorar algunas de las consecuencias negativas de la nueva tecnología. 

"Cuando se creó Internet, si te fijas en todo el contenido de Internet, eran los degenerados los que lo utilizaban, como si fuera horrible, todo tipo de cosas nefastas ocurrían en él", dijo. "Si retrocedes en la historia hasta los años 90, estaba llena de cosas como ésta".

"Con el tiempo, construyes seguridad, construyes la capacidad de que ahora tengas una marca de verificación en tu sitio web para decir que éste es un buen sitio web", añadió. 

Lo mismo ocurrirá con la IA si las personas recuperan el control mediante una combinación de tecnología y vigilancia humana, dijo Balasubramaniyan.

HAZ CLIC AQUÍ PARA OBTENER LA APLICACIÓN FOX NEWS

"Va a haber muchos casos de mal uso, muchos degenerados que lo utilicen, pero tú, como consumidor, tienes que mantenerte alerta", dijo. "De lo contrario, te quitarán la camiseta".

Carga más..