Este sitio web fue traducido automáticamente. Para obtener más información, por favor haz clic aquí.
Únete a Fox News para acceder a este contenido
Además de acceso especial a artículos selectos y otros contenidos premium con tu cuenta, de forma gratuita.
Al introducir tu correo electrónico y pulsar continuar, estás aceptando las Condiciones de uso y la Política de privacidad de Fox News', que incluye nuestro Aviso de incentivo económico.
Introduce una dirección de correo electrónico válida.
Al introducir tu correo electrónico y pulsar continuar, estás aceptando las Condiciones de uso y la Política de privacidad de Fox News', que incluye nuestro Aviso de incentivo económico.

Una familia de California sufrió una terrible experiencia cuando unos estafadores que utilizaban inteligencia artificial les hicieron creer que su hijo había sufrido un grave accidente.

Amy Trapp estaba trabajando un día normal en la escuela de Mill Valley , cerca de San Francisco, cuando recibió una llamada de un número desconocido y descolgó el teléfono al oír una voz que creyó que era la de su hijo, según un informe del San Francisco Chronicle.

"Era la voz de mi hijo al teléfono llorando, diciéndome: 'Mamá, mamá, he tenido un accidente de coche'", contó Trapp al medio.

La madre dijo que al instante sintió pánico y tuvo visiones de su hijo, que estaba en la universidad cerca de la costa central de California, tendido debajo de un coche o en el arcén de la carretera en un charco de su propia sangre. En lugar de eso, otra voz se puso al teléfono y dijo a Trapp que era policía y que su hijo, Will, había herido a una mujer embarazada en el accidente y había sido llevado a la cárcel.

UNA MADRE DE ARIZONA ATERRORIZADA AI UNA ESTAFA DE SECUESTRO INTENTÓ ENGAÑARLA PARA QUE LA SECUESTRARAN MIENTRAS TEMÍA POR SU HIJA

AI hacker foto ilustración

Un hacker de inteligencia artificial detrás de un ordenador. (Fox News)

Trapp dijo que se creyó la historia porque la voz en la otra línea era inequívocamente la de su hijo. También confió en otro hombre que decía ser abogado de oficio de Will, quien le pidió que retirara más de 15.500 dólares para cubrir el coste de la fianza de Will.

Horas después, el marido de Trapp llamó directamente a la policía, y la pareja descubrió que en realidad se trataba de una estafa. Los hombres habían engañado a la preocupada madre utilizando una sofisticada tecnología de inteligencia artificial para replicar la voz de Will. Will había estado estudiando en su salón todo el tiempo, sin enterarse del drama que se estaba desarrollando con sus padres.

"Estafas como ésta crecen cada día a medida que la tecnología deepfake mejora y se hace más fácil acceder a ella", dijo a Fox News Digital Christopher Alexander, director de análisis de Pioneer Development Group. "Estafas como ésta tienen éxito porque se ejerce una inmensa presión sobre las víctimas con la esperanza de que las imperfecciones del deepfake pasen desapercibidas". 

Aunque las estafas telefónicas existen desde hace años, las estafas con inteligencia artificial amenazan con convertirse en un problema creciente que hará que las víctimas tengan menos probabilidades de detectar que están siendo engañadas.

¿QUÉ ES LA INTELIGENCIA ARTIFICIAL (AI)?

"Las llamadas fraudulentas han sido una espina constante para los estadounidenses durante años, y nadie espera ser la persona que caiga en ellas", dijo a Fox News Digital Aiden Buzzetti, presidente del Proyecto Bull Moose. "La proliferación de la replicación de voz por IA va a hacer que incluso el usuario más experto en tecnología sea susceptible de ser engañado, sobre todo cuando entra en juego el instinto humano". 

"Los delincuentes que están detrás de estas robollamadas fabrican situaciones de alto riesgo para mantener a padres y abuelos miopes, emocionalmente agravados e impedirles pensar con claridad. Tenemos que seguir animando al gobierno federal y a los organismos estatales a que tomen medidas enérgicas contra las robollamadas, persiguiendo a los servicios que permiten llamadas de spam extranjeras."

LOS EXPERTOS AFIRMAN QUE EL DESARROLLO DE LA AI "EXPLOTARÁ" EN 2024

"Estamos asistiendo a una alarmante explosión de estafas de voz basadas en Al, que ahora suponen una amenaza creciente para las familias. Los delincuentes y estafadores están aprovechando los avances en Al generativa para hacerse pasar por personas con una precisión aterradora", dijo Jake Denton, investigador asociado del Centro de Política Tecnológica de la Fundación Heritage, a Fox News Digital. 

"Estas estafas suelen aprovecharse de las emociones de las personas desprevenidas, a menudo imitando la voz de un familiar que suplica ayuda urgentemente. Para mantenerse a salvo de estas estafas, las familias deben tomar medidas proactivas ahora para protegerse."

En el caso de Trapp, la preocupada madre recordó que tenía "cero dudas" de que estaba hablando con su hijo, lo que provocó una descarga de adrenalina que nubló su juicio cuando el supuesto agente de policía se puso al teléfono.

Minutos después, cuando llamó un hombre que se identificó como abogado de oficio llamado David Bell, dijo a la preocupada madre que había podido negociar la fianza de su hijo de 50.000 a 15.000 dólares y le preguntó si podía conseguir el dinero rápidamente. Trapp accedió.

smartphone facebook

Iniciar sesión en Facebook desde un teléfono móvil. (Fox News)

"Me dijo: 'No le digas [al banco] por qué vas a recibir el dinero porque no quieres manchar la reputación de tu hijo'", dijo Trapp, señalando que en su estado de ánimo "habría hecho cualquier cosa que él dijera".

Trapp subió entonces a su coche para recoger a su marido, que recuerda estar convencido de que su mujer había hablado con su hijo. La pareja fue al banco y retiró 15.500 dólares. 

"Todo se reduce a que esa voz es reconocida por su propia madre, con la que habla varias veces a la semana", dijo el padre, Andy Trapp. "Nunca, jamás, pensé que caería en algo así". 

OPENAI LANZA LA TIENDA GPT PARA CHATBOTS PERSONALIZADOS

Una vez en casa, el supuesto abogado de oficio dijo a la pareja que enviarían a un mensajero a recoger el dinero a su domicilio, lo que acabó por hacer saltar las alarmas en la cabeza de la pareja.

"Eso ha sonado totalmente mal", dijo Andy Trapp.

Ese fue el momento en que la situación se convirtió en demasiado para Amy Trapp, que dijo que se puso de rodillas delante de la casa de la familia.

"¿Dónde está mi hijo? ¿Dónde está mi hijo?", gritó.

Andy Trapp llamó entonces a la comisaría local, donde supuestamente había ocurrido el incidente. Al preocupado padre le dijeron que no había constancia del accidente. Fue entonces cuando la pareja llamó finalmente a su hijo a la universidad, y éste desconocía por completo la situación.

"Eh, ¿qué pasa?" respondió Will tranquilamente, según los Trapp.

Según el informe, los intentos de llamadas fraudulentas como la empleada contra los Trapp son ilegales, pero a menudo difíciles de investigar o perseguir, muchas veces porque las estafas se originan en el extranjero.

Samuel Mangold-Lenett, redactor de The Federalist, cree que se podría hacer más para proteger a las víctimas potenciales.

"Las estafas de phishing siguen siendo un problema grave. Pero ahora que la IA permite a los malos actores utilizar una sofisticada tecnología de clonación de voz, todo el que tenga un teléfono móvil es un objetivo potencial", dijo Mangold-Lenett a Fox News Digital. "Hay que hacer más para responsabilizar a las personas que llevan a cabo estas estafas. Es probable que las leyes que ya están en vigor puedan aplicarse a situaciones como ésta, pero tal vez deberían aplicarse normas más específicas." 

ESTAFADORES UTILIZAN AI PARA CLONAR LA VOZ DE UNA MUJER Y ATERRORIZAR A SU FAMILIA CON UNA FALSA LLAMADA DE RESCATE: "EL PEOR DÍA DE MI VIDA

Phil Siegel, fundador del Centro de Simulación de Preparación Avanzada y Respuesta a Amenazas (CAPTRS), dijo a Fox News Digital que se desconoce con qué frecuencia se utiliza la IA en este tipo de delitos, aunque advirtió que es probable que estos incidentes aumenten en los próximos años.

"Muchos ancianos y personas mayores no se tomarán el tiempo necesario para comprender la IA porque no la utilizarán, lo que les convertirá en blancos propicios para estafas como ésta", dijo Siegel. "Ya se trate de estar en la cárcel, tener un accidente de coche, necesitar dinero para reparar la casa o muchas otras estafas, esto ocurrirá con más frecuencia en los próximos años".

hombre con un smartphone en una mano y una tarjeta de crédito en la otra

Las estafas relacionadas con la inteligencia artificial suelen dirigirse a las personas mayores, según los expertos. (Cyberguy.com)

HAZ CLIC AQUÍ PARA OBTENER LA APLICACIÓN FOX NEWS

Siegel dijo que la gente puede defenderse siendo precavida, especialmente cuando se trata de transacciones con dinero.

"La lección es devolver siempre la llamada a la persona antes de hacer nada", dijo Siegel. "Nunca des a alguien que no conozcas o que no hayas contratado dinero en efectivo, dinero por transferencia, dinero de Venmo o criptomonedas. Y, por supuesto, si se trata de algo relacionado con las fuerzas de seguridad, consúltalo primero con ellas".

Will Trapp dijo al San Francisco Chronicle que no tiene ni idea de cómo los estafadores pudieron copiar su voz, y señaló que sus cuentas en las redes sociales son privadas, aunque a veces canta y hace música que se publica en Internet.

"Es difícil imaginar cómo podría utilizarse, porque no es como mi voz hablada", dijo. "Da mucho miedo".