OpenAI ante los estafadores que usan la tecnología para hacerse con dinero y datos
Jack , investigador jefe de estafas OpenAI, explica cómo está trabajando el sector para ir un paso por delante de los estafadores.
A medida que la IA se va generalizando, los delincuentes se las ingenian para aprovechar esta tecnología con el fin de actuar de forma más inteligente, y no más laboriosa, a la hora de robar datos y dinero. Sin embargo, empresas como OpenAI están utilizando ahora esas mismas herramientas para contraatacar, poniendo en marcha iniciativas destinadas a detener a los estafadores antes de que alcancen a sus víctimas.
«Se trata más bien de una evolución que de una revolución en la actividad de los estafadores», declaró Jack , investigador jefe de estafas OpenAI, a Fox News . «Las estafas en sí mismas son prácticamente las mismas de siempre».
Según Stubbs, los estafadores siguen haciéndose pasar por famosos y creando oportunidades de inversión falsas para atraer a sus víctimas con promesas de dinero o utilizando tácticas emocionales. Ahora, la IA está ayudando a los delincuentes a actuar más rápido, de forma más barata y con mayor eficacia.
«El uso indebido más habitual que vemos que hacen los estafadores de nuestros modelos es el trabajo básico de traducción», dijo Stubbs. «Reciben mensajes de las víctimas, los traducen a otro idioma y luego recurren a la IA para que les ayude a redactar su siguiente respuesta».

OpenAI la Alianza Global contra el Fraude, mientras los delincuentes usan la IA para estafar a las víctimas y quedarse con su dinero y sus datos. (Getty Images)
Aunque la IA puede corregir los errores gramaticales y ortográficos que suelen caracterizar a los correos electrónicos o mensajes de texto fraudulentos, sigue dejando pistas que pueden ayudar a las posibles víctimas a detectar una estafa más fácilmente. Según Stubbs, esto se debe a que los estafadores siguen actuando con un patrón similar incluso cuando usan la IA.
Stubbs dividió las estafas en tres fases: «el ping», «el zing» y «el sting».
La primera fase, el «ping», es el primer contacto, que suele ser un correo electrónico o un mensaje online que inicia la comunicación entre el estafador y la víctima.
Ahora viene el «golpe de efecto». Aquí es donde entra en juego la petición o la súplica. En la fase del «golpe de efecto», un estafador podría proponer una oportunidad de inversión que, según él, multiplicará la inversión de la víctima, o bien recurrir a una súplica emotiva, alegando que lo necesita por cualquier motivo.
Por último, llega el «golpe». Aquí es donde el estafador le saca datos, dinero o ambas cosas a la víctima.
Según Stubbs, no hay ninguna fase en la que sea más fácil pillar a los estafadores. Sin embargo, destacó la importancia de intentar pillarlos en la fase inicial de «ping».

Los estafadores están usando la IA para perfeccionar viejas tácticas, como el fraude romántico. (FrankGetty Images)
Las aplicaciones falsas de ChatGPT están tomando el control de tu teléfono sin que te des cuenta
«Si logramos interceptar este tipo de actividades delictivas en el momento en que entran en contacto con la gente —por ejemplo, cuando alguien recibe un mensaje de texto raro o un poco sospechoso, o se encuentra con una página web que parece extraña—, así es como podemos reducir al máximo los daños y ayudar a mantener a la gente a salvo», dijo Stubbs.
En su esfuerzo por combatir el uso indebido de la IA con fines fraudulentos, OpenAI se ha unido OpenAI a la Alianza Global contra el Fraude (GASA), una organización internacional que trabaja para reunir a partes interesadas de los sectores público y privado con el fin de luchar contra las estafas. El informe «Global State of Scams Report 2025» de este grupo estimó que se perdieron 442 000 millones de dólares a causa de estafas en los 42 países encuestados, y el 23 % de los encuestados afirmó haber perdido dinero durante el último año.
OpenAI GASA han lanzado recientemente Scam.org, una plataforma basada en inteligencia artificial que ofrece ayuda a las víctimas de estafas en más de 50 idiomas. Además, ofrece materiales educativos sobre cómo detectar, prevenir y denunciar las estafas.
«Lo mejor de todo es que también pueden comunicar a la Alianza Global contra el Fraude los indicios o datos relacionados con la estafa, para que puedan compartirlos con socios del sector, quizá con las fuerzas del orden, y así podamos trabajar todos juntos para ayudar a proteger a la gente», dijo Stubbs.

Cuando se filtra información personal y de facturación, el riesgo va más allá de una sola empresa y afecta a los clientes de a pie. (Getty Images)
El lanzamiento de Scam.org tuvo lugar unos días antes de la Cumbre Mundial sobre el Fraude celebrada en Viena, Austria, donde varios actores importantes, entre ellos OpenAI, firmaron el Acuerdo del Sector contra las Estafas y el Fraude en Línea. Stubbs dijo que, en su opinión, uno de los mayores logros técnicos que puede derivarse del acuerdo es un mayor intercambio de información.
«Esto es algo en lo que llevamos años trabajando en el sector tecnológico, y cada vez hablamos más con gente del Gobierno y de las fuerzas del orden para que podamos unirnos todos y compartir la información que tenemos sobre quiénes son estos delincuentes y cómo operan», dijo Stubbs.
HAZ CLIC AQUÍ PARA DESCARGAR LA APP DE FOX NEWS
Aunque los estafadores se adaptan y utilizan las nuevas tecnologías en su beneficio, Stubbs dijo que la simple concienciación, el sentido común y la verificación siguen siendo suficientes para detener muchos ataques. Señaló que si estas estafas se llevaran a cabo en la vida real, como por ejemplo si un desconocido se acercara a alguien y le ofreciera una oportunidad de inversión, la mayoría de la gente se daría cuenta de que algo no iba bien.
«La mejor defensa que tenemos todos para protegernos de las estafas es intentar mantener la lucidez mental necesaria para parar, pensar y consultar con una segunda fuente de confianza. Y esa puede ser un familiar, un compañero de trabajo, un amigo muy cercano o, en el caso de las tecnologías de IA, herramientas como ChatGPT o Scam.org», dijo Stubbs.









































