Se advierte a los padres de una inquietante trama de secuestros que utiliza réplicas de la voz de los niños

El objetivo de la estafa del secuestro AI es asustar a las víctimas para que transfieran grandes sumas de dinero a cambio de la seguridad de sus seres queridos.

Las estafas telefónicas existen desde hace tiempo, pero los recientes avances en tecnología de inteligencia artificial están facilitando que los malos actores convenzan a la gente de que han secuestrado a sus seres queridos.

Los estafadores están utilizando la IA para replicar las voces de los familiares de las personas en falsos planes de secuestro que convencen a las víctimas para que envíen dinero a los estafadores a cambio de la seguridad de sus seres queridos.

La estafa se dirigió recientemente contra dos víctimas de un distrito escolar del estado de Washington.

Las Escuelas Públicas Highline de Burien, Washington, emitieron un aviso el 25 de septiembre en el que alertaban a los miembros de la comunidad de que las dos personas habían sido objeto de "estafadores que afirmaban falsamente que habían secuestrado a un familiar."

¿PUEDE AI AYUDAR A ALGUIEN A MONTAR UNA ESTAFA FALSA DE SECUESTRO CONTRA TI O TU FAMILIA?

Los estafadores están utilizando la IA para manipular las voces reales de las personas, en un intento de engañar a las víctimas haciéndoles creer que sus seres queridos han sido secuestrados para pedir un rescate. (Helena Dolderer/Alianza Fotográfica)

"Los estafadores reproducían una grabación de audio [generada por la IA] del miembro de la familia y, a continuación, exigían un rescate", escribió el distrito escolar. "La Oficina Federal de Investigación (FBI) ha observado un aumento de estas estafas en todo el país, con especial atención a las familias que hablan una lengua distinta del inglés".

En junio, la madre de Arizona Jennifer DeStefano testificó ante el Congreso sobre cómo los estafadores utilizaron la IA para hacerle creer que su hija había sido secuestrada en una trama de extorsión de 1 millón de dólares. Empezó explicando su decisión de responder a una llamada de un número desconocido un viernes por la tarde.

UNA MADRE DE ARIZONA ATERRORIZADA AI UNA ESTAFA DE SECUESTRO INTENTÓ ENGAÑARLA PARA QUE LA SECUESTRARAN MIENTRAS TEMÍA POR SU HIJA

"Contesté al teléfono: 'Hola'. Al otro lado estaba nuestra hija Briana sollozando y llorando diciendo: 'Mamá'", escribió DeStefano en su testimonio ante el Congreso. "Al principio, no pensé nada. ... Le pregunté casualmente qué había pasado mientras la tenía en altavoz caminando por el aparcamiento para reunirme con su hermana. Briana continuó: 'Mamá, la he cagado', con más llantos y sollozos".

En aquel momento, DeStefano no tenía ni idea de que un mal actor había utilizado la IA para replicar la voz de su hija en la otra línea.

MIRA EL TESTIMONIO DE DESTEFANO:

Entonces oyó la voz de un hombre al otro lado gritando exigencias a su hija, mientras Briana -su voz, al menos- seguía gritando que unos hombres malos se la habían "llevado".

"Briana estaba en el fondo suplicando desesperadamente: "¡Mamá, ayúdame!"".

- Jennifer DeStefano

"Un hombre amenazador y vulgar se hizo cargo de la llamada. am am Escucha, tengo a tu hija, si se lo dices a alguien, llamas a la policía, le voy a llenar el estómago de drogas, voy a hacer lo que quiera con ella, la dejaré en [M]éxico y no volverás a verla", mientras Briana suplicaba desesperada: "¡Mamá, ayúdame!"". escribió DeStefano.

Los hombres exigieron un rescate de 1 millón de dólares a cambio de la seguridad de Briana mientras DeStefano intentaba ponerse en contacto con amigos, familiares y la policía para que la ayudaran a localizar a su hija. Cuando DeStefano dijo a los estafadores que no tenía 1 millón de dólares, exigieron 50.000 dólares en efectivo para recogerlos en persona.

Mientras se desarrollaban estas negociaciones, el marido de DeStefano localizó a Briana sana y salva en su casa, en su cama, sin tener conocimiento de la estafa de su propia voz.

En aquel momento, Jennifer DeStefano no tenía ni idea de que un mal actor había utilizado la IA para replicar la voz de su hija en la otra línea. (Senado de EE.UU.)

"¿Cómo podía estar a salvo con su padre y, sin embargo, en poder de unos secuestradores? No tenía ningún sentido. Tenía que hablar con Brie", escribió DeStefano. "No podía creer que estuviera a salvo hasta que oí su voz decir que lo estaba. Le pregunté una y otra vez si era realmente ella, si estaba realmente a salvo, otra vez, ¿es realmente Brie? ¿Estás segura de que estás realmente a salvo? Mi mente daba vueltas. No recuerdo cuántas veces necesité que me tranquilizaran, pero cuando por fin me di cuenta de que estaba a salvo, me puse furiosa".

DeStefano concluyó su testimonio señalando cómo la IA está haciendo más difícil que los humanos crean a sus propios ojos y oigan con sus propios oídos, sobre todo en entornos virtuales o por teléfono.

Los malos actores han atacado a víctimas en todo Estados Unidos y en todo el mundo. Son capaces de replicar la voz de una persona mediante dos tácticas principales: en primer lugar, recopilando datos de la voz de una persona si responde a una llamada desconocida de los estafadores, que luego utilizarán la IA para manipular esa misma voz para que diga frases completas; y en segundo lugar, recopilando datos de la voz de una persona a través de vídeos públicos colgados en las redes sociales. 

"Cuanto más tiempo hables, más datos recopilarán".

- Beenu Arora, Cyble CEO

Así lo afirma Beenu Arora, CEO y presidente de Cyble, una empresa de ciberseguridad que utiliza soluciones basadas en IA para detener a los malos actores.

"Así que básicamente estás hablando con ellos, suponiendo que hay alguien intentando mantener una conversación, o ... una llamada de telemarketing, por ejemplo. La intención es obtener los datos correctos a través de tu voz, que luego pueden imitar... a través de algún otro modelo de IA", explicó Arora. "Y esto está adquiriendo mucha más importancia ahora".

MIRA: VÍCTIMA DE CIBERSECUESTRO ADVIERTE A SUS PADRES

Añadió que "extraer audio de un vídeo" en las redes sociales "no es tan difícil".

"Cuanto más tiempo hables, más datos estarán recopilando", dijo Arora sobre los estafadores, "y también menos modulaciones de voz y tu jerga y cómo hablas. Pero... cuando recibes estas llamadas fantasma o llamadas en blanco, en realidad te recomiendo que no hables mucho".

ESTAFADORES UTILIZAN AI PARA CLONAR LA VOZ DE UNA MUJER Y ATERRORIZAR A SU FAMILIA CON UNA FALSA LLAMADA DE RESCATE: "EL PEOR DÍA DE MI VIDA

Los Institutos Nacionales de la Salud (NIH) recomiendan a los objetivos de este delito que tengan cuidado con las llamadas que exigen dinero para el rescate desde códigos de área desconocidos o números que no son el teléfono de la víctima. Estos malhechores también hacen "todo lo posible" por mantener a las víctimas al teléfono para que no tengan la oportunidad de ponerse en contacto con las autoridades. También suelen exigir que el dinero del rescate se envíe a través de un servicio de transferencia bancaria.

La agencia también recomienda a las personas objeto de este delito que intenten ralentizar la situación, pidan hablar directamente con la víctima, soliciten una descripción de la víctima, escuchen atentamente la voz de la víctima e intenten ponerse en contacto con ella por separado mediante llamada, mensaje de texto o mensaje directo.

Cualquiera que crea haber sido víctima de este tipo de estafa debe ponerse en contacto con su departamento de policía local. (Kurt "CyberGuy" Knutsson)

Los NIH publicaron un anuncio de servicio público diciendo que múltiples empleados de los NIH han sido víctimas de este tipo de estafa, que "suele empezar con una llamada telefónica diciendo que tu familiar está secuestrado". Antes, los estafadores alegaban que el familiar de la víctima había sido secuestrado, a veces con el sonido de gritos de fondo de una llamada telefónica o un mensaje de vídeo. 

Sin embargo, más recientemente, debido a los avances en IA, los estafadores pueden replicar la voz de un ser querido utilizando vídeos en las redes sociales para hacer que la trama del secuestro parezca más real. En otras palabras, los malos actores pueden utilizar la IA para replicar la voz de un ser querido, utilizando vídeos disponibles públicamente en Internet, para hacer creer a sus objetivos que sus familiares o amigos han sido secuestrados.

Los que llaman suelen proporcionar a la víctima información sobre cómo enviar dinero a cambio de que su ser querido regrese sano y salvo, pero los expertos sugieren a las víctimas de este delito que se tomen un momento para detenerse y reflexionar sobre si lo que están oyendo a través de la otra línea es real, incluso en un momento de pánico.

HAZ CLIC AQUÍ PARA OBTENER LA APLICACIÓN FOX NEWS

"Mi humilde consejo... es que cuando recibas este tipo de mensajes alarmantes, o alguien intente presionarte o hacer cosas [con un sentido] de urgencia, siempre es mejor detenerse y pensar antes de actuar", dijo Arora. "Creo que, como sociedad, va a ser mucho más difícil identificar lo real frente a lo falso, simplemente por el avance que estamos viendo".

Arora añadió que, aunque se están utilizando algunas herramientas centradas en la IA para identificar y combatir proactivamente las estafas de este tipo, debido al rápido ritmo de desarrollo de esta tecnología, queda un largo camino por recorrer para quienes trabajan para impedir que los malos actores se aprovechen de las víctimas sin saberlo. Cualquiera que crea que ha sido víctima de este tipo de estafa debe ponerse en contacto con su departamento de policía local.

Carga más..