Imprimir Imprimir    Close Close

Cómo los chatbots con IA están ayudando a los hackers a atacar tus cuentas bancarias

Por Kurt Knutsson, CyberGuy Report

Publicado el 15 de julio de 2025

Fox News
Los chatbots con IA se están utilizando como asistentes financieros personales. Vídeo

Los chatbots con IA se están convirtiendo rápidamente en la principal forma en que las personas interactúan con Internet. En lugar de navegar por una lista de enlaces, ahora puedes obtener respuestas directas a tus preguntas. Sin embargo, estas herramientas a menudo proporcionan información que es completamente inexacta y, en el contexto de la seguridad, eso puede ser peligroso. De hecho, los investigadores en ciberseguridad advierten que los hackers han comenzado a explotar las fallas de estos chatbots para llevar a cabo ataques de phishing con IA.

Concretamente, cuando las personas utilizan herramientas de IA para buscar páginas de inicio de sesión, especialmente para plataformas bancarias y tecnológicas, las herramientas devuelven enlaces incorrectos. Y una vez que haces clic en ese enlace, es posible que te redirijan a sitios web falsos. Estos sitios pueden utilizarse para robar información personal o credenciales de inicio de sesión.

Suscríbete a mi informe gratuito CyberGuy
Recibe mis mejores consejos tecnológicos, alertas de seguridad urgentes y ofertas exclusivas directamente en tu bandeja de entrada. Además, obtendrás acceso instantáneo a mi Guía definitiva para sobrevivir a las estafas, gratis al unirte a mi CYBERGUY.COM/NEWSLETTER.

Un hombre utilizando ChatGPT tu ordenador portátil.

Un hombre utilizando ChatGPT tu ordenador portátil. (Kurt «CyberGuy» Knutsson)

Lo que debes saber sobre los ataques de phishing con IA

Los investigadores de Netcraft realizaron recientemente una prueba con la familia de modelos GPT-4.1, que también utilizan Bing AI de Microsoft y el motor de búsqueda con IA Perplexity. Preguntaron dónde debían iniciar sesión en cincuenta marcas diferentes del sector bancario, minorista y tecnológico. 

De los 131 enlaces únicos que devolvió el chatbot, solo alrededor de dos tercios eran correctos. Aproximadamente el 30 % de los enlaces apuntaban a dominios no registrados o inactivos. Otro 5 % conducía a sitios web no relacionados. En total, más de un tercio de las respuestas enlazaban con páginas que no pertenecían a las empresas reales. Esto significa que alguien que busque un enlace de inicio de sesión podría acabar fácilmente en un sitio falso o inseguro.

Si los atacantes registran esos dominios sin reclamar, pueden crear páginas de phishing convincentes y esperar. Dado que la respuesta proporcionada por la IA suele parecer oficial, los usuarios tienden a confiar en ella sin comprobarla.

Página de Wikipedia que muestra ChatGPT en un teléfono inteligente.

Página de Wikipedia que muestra ChatGPT en un teléfono inteligente. (Kurt «CyberGuy» Knutsson)

Los ataques de phishing con IA ya son una realidad: ejemplo real

En un caso reciente, un usuario solicitó a Perplexity AI la página de inicio de sesión de Wells Fargo. El primer resultado no era el sitio web oficial de Wells Fargo, sino una página de phishing alojada en Google . El sitio falso imitaba fielmente el diseño real y pedía a los usuarios que introdujeran su información personal. Aunque el sitio correcto aparecía más abajo en la lista, muchas personas no se darían cuenta ni se les ocurriría verificar el enlace.

El problema en este caso no era específico del modelo subyacente de Perplexity. Se debía al uso indebido Google y a la falta de verificación en los resultados de búsqueda que mostraba la herramienta. Aun así, el resultado fue el mismo: una plataforma de IA de confianza dirigió inadvertidamente a alguien a un sitio web financiero falso.

Los bancos más pequeños y las cooperativas de crédito regionales se enfrentan a riesgos aún mayores. Es menos probable que estas instituciones aparezcan en los datos de entrenamiento de la IA o que estén indexadas con precisión en la web. Como resultado, las herramientas de IA son más propensas a adivinar o inventar enlaces cuando se les pregunta por ellos, lo que aumenta el riesgo de exponer a los usuarios a destinos inseguros.

Imagen de ChatGPT la pantalla de un ordenador de sobremesa.

Imagen de ChatGPT la pantalla de un ordenador de sobremesa. (Kurt «CyberGuy» Knutsson)

7 formas de protegerte contra los ataques de phishing con IA

A medida que los ataques de phishing con IA se vuelven más sofisticados, protegerte comienza con unos pocos hábitos inteligentes. Aquí hay siete que pueden marcar una diferencia real:

1) Nunca confíes ciegamente en los enlaces de las respuestas del chat con IA.

Los chatbots con IA suelen sonar seguros incluso cuando se equivocan. Si un chatbot te indica dónde iniciar sesión, no hagas clic en el enlace inmediatamente. En su lugar, ve directamente al sitio web escribiendo su URL o utilizando un marcador de confianza.

2) Comprueba dos veces los nombres de dominio con cuidado.

Los enlaces de phishing generados por IA suelen utilizar dominios similares. Comprueba si hay errores ortográficos sutiles, palabras adicionales o terminaciones inusuales como «.site» o «.info» en lugar de «.com». Si te parece que hay algo que no cuadra, no sigas adelante. 

3) Utiliza la autenticación de dos factores (2FA) siempre que sea posible.

Incluso si te roban tus credenciales de inicio de sesión, la autenticación de dos factores (2FA) añade una capa adicional de seguridad. Elige autenticadores basados en aplicaciones como Google o Authy en lugar de códigos basados en SMS cuando estén disponibles. 

4) Evita iniciar sesión a través de motores de búsqueda o herramientas de inteligencia artificial.

Si necesitas acceder a tu cuenta bancaria o tecnológica, evita buscarla o preguntar a un chatbot. Utiliza los marcadores de tu navegador o introduce URL la URL oficial. La IA y los motores de búsqueda a veces pueden mostrar páginas de phishing por error. 

5) Informar sobre enlaces sospechosos generados por IA

Si un chatbot o una herramienta de IA te proporciona un enlace peligroso o falso, denúncialo. Muchas plataformas permiten a los usuarios enviar comentarios. Esto ayuda a los sistemas de IA a aprender y reduce los riesgos futuros para otros usuarios. 

6) Mantén tu navegador actualizado y utiliza un software antivirus potente.

Los navegadores modernos como Chrome, Safari y Edge ahora incluyen protección contra el phishing y el malware. Activa estas funciones y mantén todo actualizado.

Si deseas una protección adicional, la mejor manera de protegerte de los enlaces maliciosos es instalar un software antivirus potente en todos tus dispositivos. Esta protección también puede alertarte sobre correos electrónicos de phishing y estafas de ransomware, manteniendo a salvo tu información personal y tus activos digitales.

Consigue mis recomendaciones sobre los mejores antivirus de 2025 para tus dispositivos Windows, Mac, Android e iOS en CyberGuy.com/LockUpYourTech. 

7) Usa un gestor de contraseñas.

Los gestores de contraseñas no solo generan contraseñas seguras, sino que también pueden ayudar a detectar sitios web falsos. Por lo general, no rellenan automáticamente los campos de inicio de sesión en sitios web similares o falsificados. 

Echa un vistazo a los mejores gestores de contraseñas evaluados por expertos en 2025 en Cyberguy.com/Passwords.

Conclusión clave de Kurt

Los atacantes están cambiando de táctica. En lugar de manipular los motores de búsqueda, ahora diseñan contenidos específicos para los modelos de IA. Siempre he insistido en que comprueben las URL en busca de inconsistencias antes de introducir cualquier información confidencial. Dado que los chatbots siguen siendo conocidos por generar respuestas muy inexactas debido a las alucinaciones de la IA, asegúrense de verificar cualquier cosa que les diga un chatbot antes de aplicarla en la vida real.

¿Deberían las empresas de IA hacer más para prevenir los ataques de phishing a través de sus chatbots? Cuéntanoslo escribiéndonos a Cyberguy.com/Contact.

Suscríbete a mi informe gratuito CyberGuy
Recibe mis mejores consejos tecnológicos, alertas de seguridad urgentes y ofertas exclusivas directamente en tu bandeja de entrada. Además, obtendrás acceso instantáneo a mi Guía definitiva para sobrevivir a las estafas, gratis al unirte a mi CYBERGUY.COM/NEWSLETTER.

Copyright 2025 CyberGuy.com. Todos los derechos reservados.

Kurt «CyberGuy» Knutsson es un galardonado periodista tecnológico que siente una profunda pasión por la tecnología, los dispositivos y los gadgets que mejoran la vida, y que colabora con Fox News FOX Business la mañana en el programaFOX & Friends». ¿Tienes alguna pregunta sobre tecnología? Suscríbete al boletín gratuito CyberGuy Newsletter de Kurt y comparte tu opinión, ideas para artículos o comentarios en CyberGuy.com.

Imprimir Imprimir    Close Close

URL

https://www.foxnews.com/tech/how-ai-chatbots-helping-hackers-target-your-banking-accounts

  • Home
  • Vídeo
  • Política
  • EE. UU.
  • Opinión
  • Entretenimiento
  • Tecnología
  • Ciencia
  • Salud
  • Viajes
  • Estilo de vida
  • Mundo
  • Deportes
  • El tiempo
  • Privacidad
  • Términos

Este material no puede ser publicado, difundido, reescrito ni redistribuido. FOX News Network, LLC. Todos los derechos reservados. Las cotizaciones se muestran en tiempo real o con un retraso de al menos 15 minutos. Datos de mercado proporcionados por Factset. Desarrollado e implementado por FactSet Digital Solutions. Aviso legal. Datos de fondos de inversión y ETF proporcionados por Refinitiv Lipper.No vender mi información personal - Nuevas condiciones de uso - FAQ