Millones de mensajes de chat de IA expuestos en una filtración de datos de aplicaciones

Una popular aplicación de chat con IA dejó las conversaciones privadas totalmente expuestas en Internet.

Una popular aplicación móvil llamada Chat & Ask AI tiene más de 50 millones de usuarios en Google Play Store Apple App Store. Ahora, un investigador de seguridad independiente afirma que la aplicación expuso cientos de millones de conversaciones privadas de chatbot en línea. 

Según se informa, los mensajes expuestos incluían solicitudes muy personales y perturbadoras. Los usuarios hacían preguntas como cómo suicidarse sin dolor, cómo escribir notas de suicidio, cómo fabricar metanfetamina y cómo piratear otras aplicaciones. 

No se trataba de mensajes inofensivos, sino de historiales completos de chat vinculados a usuarios reales.

Suscríbete a mi informe gratuito CyberGuy Report
Recibe mis mejores consejos tecnológicos, alertas de seguridad urgentes y ofertas exclusivas directamente en tu bandeja de entrada. Además, obtendrás acceso instantáneo a mi Ultimate Scam Survival Guide (Guía definitiva para sobrevivir a las estafas), gratis al unirte a mi CYBERGUY.COM .

CÓMO SE ESTÁ UTILIZANDO LA TECNOLOGÍA EN LA INVESTIGACIÓN DE LA DESAPARICIÓN NANCY

Los investigadores de seguridad afirman que Chat & Ask AI expuso cientos de millones de mensajes privados de chatbots, incluyendo historiales completos de conversaciones vinculados a usuarios reales. (NeilGetty Images)

¿Qué fue exactamente lo que se expuso?

El problema fue descubierto por un investigador de seguridad conocido como Harry. Descubrió que Chat & Ask AI tenía un backend mal configurado que utilizaba Google , una popular plataforma de desarrollo de aplicaciones móviles. Debido a esa mala configuración, era fácil para personas ajenas obtener acceso autenticado a la base de datos de la aplicación. Harry pudo acceder a unos 300 millones de mensajes vinculados a más de 25 millones de usuarios. Analizó una muestra más pequeña de unos 60 000 usuarios y más de un millón de mensajes para confirmar el alcance.

Según se informa, los datos expuestos incluían:

  • Historiales completos de chat con la IA
  • Marcas de tiempo para cada conversación
  • El nombre personalizado que los usuarios le dieron al chatbot.
  • Cómo configuraron los usuarios el modelo de IA
  • ¿Qué modelo de IA se seleccionó?

Esto es importante porque muchos usuarios tratan los chats de IA como diarios privados, terapeutas o compañeros con los que intercambiar ideas.

Cómo esta aplicación de IA almacena tantos datos confidenciales de los usuarios

Chat & Ask AI no es un modelo de inteligencia artificial independiente. Actúa como un envoltorio que permite a los usuarios hablar con grandes modelos de lenguaje creados por empresas más grandes. Los usuarios pueden elegir entre modelos de OpenAI, Anthropic y Google, incluidos ChatGPT, Claude y Gemini. Mientras que esas empresas operan los modelos subyacentes, Chat & Ask AI se encarga del almacenamiento. Ahí es donde las cosas salieron mal. Los expertos en ciberseguridad afirman que este tipo de configuración errónea de Firebase es una debilidad bien conocida. Además, es fácil de detectar si se sabe qué buscar.

Nos pusimos en contacto con Codeway, que publica la aplicación Chat & Ask AI, para recabar tu opinión, pero no recibimos respuesta antes de la publicación.

149 MILLONES DE CONTRASEÑAS EXPuestas EN UNA FILTRACIÓN MASIVA DE CREDENCIALES

Según se informa, la base de datos expuesta incluía marcas de tiempo, configuraciones de modelos y los nombres que los usuarios daban a sus chatbots, revelando mucho más que simples indicaciones aisladas. (ElisaGetty Images)

Por qué esto es importante para los usuarios habituales

Muchas personas dan por sentado que sus conversaciones con herramientas de IA son privadas. Escriben cosas que nunca publicarían públicamente ni dirían en voz alta. Cuando una aplicación almacena esos datos de forma insegura, se convierte en una mina de oro para los atacantes. Incluso sin nombres asociados, los historiales de chat pueden revelar problemas de salud mental, comportamientos ilegales, secretos laborales y relaciones personales. Una vez expuestos, esos datos pueden copiarse, recopilarse y compartirse para siempre.

TU TELÉFONO COMPARTE DATOS POR LA NOCHE: AQUÍ TE EXPLICAMOS CÓMO EVITARLO

Según el investigador, dado que la aplicación se encargaba del almacenamiento de datos, una simple configuración errónea de Firebase permitió que personas ajenas tuvieran acceso a chats confidenciales de IA. (Edward )

Formas de mantener la seguridad al utilizar aplicaciones de IA

No es necesario que dejes de usar herramientas de IA para protegerte. Con unas cuantas decisiones informadas, puedes reducir el riesgo y seguir utilizando estas aplicaciones cuando te resulten útiles.

1) Ten cuidado con los temas delicados.

Las conversaciones con IA pueden parecer privadas, especialmente cuando estás estresado, sientes curiosidad o buscas respuestas. Sin embargo, no todas las aplicaciones gestionan las conversaciones de forma segura. Antes de compartir problemas personales profundos, inquietudes médicas, detalles financieros o preguntas que podrían suponer un riesgo legal si se revelaran, tómate tu tiempo para comprender cómo protege tus datos la tienda de aplicaciones. Si esas protecciones no están claras, considera alternativas más seguras, como profesionales de confianza o servicios con controles de privacidad más estrictos.

2) Investiga la aplicación antes de instalarla.

No te fijes solo en el número de descargas y las valoraciones con estrellas. Comprueba quién gestiona la aplicación, cuánto tiempo lleva disponible y si su política de privacidad explica claramente cómo se almacenan y protegen los datos de los usuarios.

3) Asume que las conversaciones pueden almacenarse.

Incluso cuando una aplicación afirma proteger la privacidad, muchas herramientas de IA registran las conversaciones con fines de resolución de problemas o mejora de modelos. Considera los chats como registros potencialmente permanentes en lugar de mensajes temporales.

4) Limita la vinculación de cuentas y los inicios de sesión.

Algunas aplicaciones de IA te permiten iniciar sesión con Google, Apple o una cuenta de correo electrónico. Aunque resulta cómodo, esto puede vincular directamente los historiales de chat con tu identidad real. Siempre que sea posible, evita vincular las herramientas de IA a las cuentas principales que utilizas para el trabajo, la banca o la comunicación personal.

5) Revisa los permisos de las aplicaciones y los controles de datos.

Las aplicaciones de IA pueden solicitar un acceso superior al necesario para funcionar. Revisa cuidadosamente los permisos y desactiva todo lo que no sea esencial. Si la aplicación ofrece opciones para eliminar el historial de chat, limitar la retención de datos o desactivar la sincronización, activa esas configuraciones.

6) Utiliza un servicio de eliminación de datos.

Tu huella digital va más allá de las aplicaciones de inteligencia artificial. Cualquiera puede encontrar datos personales sobre ti con una simple Google , incluyendo tu número de teléfono, dirección, fecha de nacimiento y número de la Seguridad Social. Los profesionales del marketing compran esta información para orientar sus anuncios. En casos más graves, los estafadores y los ladrones de identidad violan la seguridad de los corredores de datos, dejando los datos personales expuestos o circulando en la web oscura. El uso de un servicio de eliminación de datos ayuda a reducir lo que se puede vincular contigo si se produce una violación de la seguridad.

Aunque ningún servicio puede garantizar la eliminación completa de tus datos de Internet, un servicio de eliminación de datos es realmente una opción inteligente. No son baratos, pero tampoco lo es tu privacidad. Estos servicios hacen todo el trabajo por ti, supervisando activamente y borrando sistemáticamente tu información personal de cientos de sitios web. Es lo que me da tranquilidad y ha demostrado ser la forma más eficaz de borrar tus datos personales de Internet. Al limitar la información disponible, reduces el riesgo de que los estafadores crucen los datos de las filtraciones con la información que puedan encontrar en la web oscura, lo que les dificulta atacarte.

Echa un vistazo a mis mejores opciones de servicios de eliminación de datos y obtén un análisis gratuito para averiguar si tu información personal ya está en la web visitando Cyberguy.com.

Realiza un análisis gratuito para averiguar si tu información personal ya está en la web: Cyberguy.com.

Conclusiones clave de Kurt

Las aplicaciones de chat con IA avanzan rápidamente, pero la seguridad sigue estando rezagada. Este incidente demuestra cómo un solo error de configuración puede exponer millones de conversaciones profundamente personales. Hasta que no se generalicen protecciones más sólidas, debes tratar los chats con IA con precaución y limitar lo que compartes. La comodidad es real, pero también lo es el riesgo.

¿Consideras que tus chats con IA son privados o esta historia ha cambiado lo que estás dispuesto a compartir con estas aplicaciones? Cuéntanos tu opinión escribiéndonos a Cyberguy.com.

Suscríbete a mi informe gratuito CyberGuy Report
Recibe mis mejores consejos tecnológicos, alertas de seguridad urgentes y ofertas exclusivas directamente en tu bandeja de entrada. Además, obtendrás acceso instantáneo a mi Ultimate Scam Survival Guide (Guía definitiva para sobrevivir a las estafas), gratis al unirte a mi CYBERGUY.COM .

HAZ CLIC AQUÍ PARA DESCARGAR LA APP DE FOX NEWS

Copyright 2026 CyberGuy.com. Todos los derechos reservados.