Una madre de Arizona describe la estafa telefónica de AI fingiendo el secuestro de su hija: "Era completamente su voz

La "clonación de la voz" se ha convertido en una preocupación creciente de la inteligencia artificial

Jennifer DeStefano, madre de Arizona, relató una experiencia aterradora cuando unos estafadores telefónicos utilizaron tecnología de inteligencia artificial para hacerle creer que su hija adolescente estaba secuestrada.

El canal de noticias local KPHO informó de la historia el lunes, con DeStafano describiendo un incidente reciente en el que recibió una llamada de un número desconocido. Como su hija estaba de viaje esquiando en ese momento, contestó a la llamada preocupada por un accidente.

DeStefano explicó: "Descuelgo el teléfono y oigo la voz de mi hija, que dice: '¡Mamá!' y está sollozando. Le pregunté: '¿Qué ha pasado? Y ella dijo: 'Mamá, la he cagado', y sollozaba y lloraba".

Han aumentado los sistemas de "clonación de voz" utilizados para extorsionar a las víctimas. (Fox News)

"Este hombre se pone al teléfono y dice: 'Escucha. Tengo a tu hija. Esto es lo que va a pasar. Si llamas a la policía o a quien sea, la voy a llenar de drogas. Voy a hacer lo que quiera con ella y la voy a dejar en México'. Y en ese momento, empecé a temblar. En el fondo ella decía: 'Ayúdame, mamá. Ayúdame, por favor. Ayúdame', y berreaba", continuó.

UN "EMBAUCADOR DE TIKTOK" ESTAFA PRESUNTAMENTE A SUS VÍCTIMAS MILES DE DÓLARES EN VARIOS ESTADOS 

DeStefano se encontraba en ese momento en el estudio de danza de su otra hija, donde otras madres la ayudaron llamando al 911, así como el marido de DeStefano. Al cabo de unos minutos, pudieron confirmar que la hija de DeStefano estaba a salvo. A pesar de ello, DeStefano dijo sentirse conmocionada por la experiencia.

"Era completamente su voz. Era su inflexión. Era la forma en que habría llorado. No dudé ni un segundo de que era ella. Esa es la parte extraña que realmente me llegó al alma", dijo.

La llamada se produjo en medio de un aumento de las tramas de "suplantación de identidad", en las que los estafadores afirman haber secuestrado a seres queridos para cobrar un rescate utilizando tecnología de clonación de voz. Una usuaria de TikTok llamada Chelsie Gates obtuvo más de 2,5 millones de visitas en un vídeo en el que relataba su propia experiencia en diciembre.

Los legisladores han expresado su preocupación por el auge de la tecnología de inteligencia artificial. (Gabby Jones/Bloomberg vía Getty Images)

"Estaba literalmente temblando durante todo esto", dijo Gates. "[Me estaba] imaginando a mi madre secuestrada a punta de pistola en casa de un paciente".

LA TECNOLOGÍA DE LA AI DESENFRENADA CORRE EL RIESGO DE PROPAGAR LA DESINFORMACIÓN, LO QUE EXIGE QUE LOS RESPONSABLES POLÍTICOS INTERVENGAN CON NORMAS: EXPERTOS 

El catedrático de Informática Subbarao Kambhampati advirtió de que estas historias de tecnología de clonación de voz y esquemas de "catfish" podrían ser más comunes a medida que mejore la tecnología de IA.

"Al principio, se necesitaba una mayor cantidad de muestras. Ahora hay formas de hacerlo con sólo tres segundos de tu voz. Tres segundos. Y con los tres segundos, puede acercarse a cómo suenas exactamente", dijo Kambhampati.

ChatGPT ha aumentado su popularidad en los últimos meses. (Bloomberg vía Getty Images)

Kurt Knutsson, el CyberGuy, contribuyó con un artículo a Fox News Digital en el que ofrecía consejos para evitar las estafas de clonación de voz, como no contestar nunca a un número desconocido, eliminar un buzón de voz personalizado e incluso evitar colgar vídeos en Internet.

HAZ CLIC AQUÍ PARA OBTENER LA APLICACIÓN FOX NEWS

"Ten cuidado con lo que publicas en Internet. Sé que a todos nos encanta compartir vídeos de buenos momentos con nuestros seres queridos en nuestras cuentas sociales, sin embargo, deberías plantearte hacer privada tu cuenta o esas publicaciones concretas para que sólo puedan verlas las personas de las que eres amigo", escribió Knutsson.

Carga más..