Por Kurt Knutsson, CyberGuy Report
Publicado el 5 de febrero de 2026.
Una popular aplicación móvil llamada Chat & Ask AI tiene más de 50 millones de usuarios en Google Play Store Apple App Store. Ahora, un investigador de seguridad independiente afirma que la aplicación expuso cientos de millones de conversaciones privadas de chatbot en línea.
Según se informa, los mensajes expuestos incluían solicitudes muy personales y perturbadoras. Los usuarios hacían preguntas como cómo suicidarse sin dolor, cómo escribir notas de suicidio, cómo fabricar metanfetamina y cómo piratear otras aplicaciones.
No se trataba de mensajes inofensivos, sino de historiales completos de chat vinculados a usuarios reales.
Suscríbete a mi informe gratuito CyberGuy Report
Recibe mis mejores consejos tecnológicos, alertas de seguridad urgentes y ofertas exclusivas directamente en tu bandeja de entrada. Además, obtendrás acceso instantáneo a mi Ultimate Scam Survival Guide (Guía definitiva para sobrevivir a las estafas), gratis al unirte a mi CYBERGUY.COM .
CÓMO SE ESTÁ UTILIZANDO LA TECNOLOGÍA EN LA INVESTIGACIÓN DE LA DESAPARICIÓN NANCY

Los investigadores de seguridad afirman que Chat & Ask AI expuso cientos de millones de mensajes privados de chatbots, incluyendo historiales completos de conversaciones vinculados a usuarios reales. (NeilGetty Images)
El problema fue descubierto por un investigador de seguridad conocido como Harry. Descubrió que Chat & Ask AI tenía un backend mal configurado que utilizaba Google , una popular plataforma de desarrollo de aplicaciones móviles. Debido a esa mala configuración, era fácil para personas ajenas obtener acceso autenticado a la base de datos de la aplicación. Harry pudo acceder a unos 300 millones de mensajes vinculados a más de 25 millones de usuarios. Analizó una muestra más pequeña de unos 60 000 usuarios y más de un millón de mensajes para confirmar el alcance.
Según se informa, los datos expuestos incluían:
Esto es importante porque muchos usuarios tratan los chats de IA como diarios privados, terapeutas o compañeros con los que intercambiar ideas.
Chat & Ask AI no es un modelo de inteligencia artificial independiente. Actúa como un envoltorio que permite a los usuarios hablar con grandes modelos de lenguaje creados por empresas más grandes. Los usuarios pueden elegir entre modelos de OpenAI, Anthropic y Google, incluidos ChatGPT, Claude y Gemini. Mientras que esas empresas operan los modelos subyacentes, Chat & Ask AI se encarga del almacenamiento. Ahí es donde las cosas salieron mal. Los expertos en ciberseguridad afirman que este tipo de configuración errónea de Firebase es una debilidad bien conocida. Además, es fácil de detectar si se sabe qué buscar.
Nos pusimos en contacto con Codeway, que publica la aplicación Chat & Ask AI, para recabar tu opinión, pero no recibimos respuesta antes de la publicación.
149 MILLONES DE CONTRASEÑAS EXPuestas EN UNA FILTRACIÓN MASIVA DE CREDENCIALES

Según se informa, la base de datos expuesta incluía marcas de tiempo, configuraciones de modelos y los nombres que los usuarios daban a sus chatbots, revelando mucho más que simples indicaciones aisladas. (ElisaGetty Images)
Muchas personas dan por sentado que sus conversaciones con herramientas de IA son privadas. Escriben cosas que nunca publicarían públicamente ni dirían en voz alta. Cuando una aplicación almacena esos datos de forma insegura, se convierte en una mina de oro para los atacantes. Incluso sin nombres asociados, los historiales de chat pueden revelar problemas de salud mental, comportamientos ilegales, secretos laborales y relaciones personales. Una vez expuestos, esos datos pueden copiarse, recopilarse y compartirse para siempre.
TU TELÉFONO COMPARTE DATOS POR LA NOCHE: AQUÍ TE EXPLICAMOS CÓMO EVITARLO

Según el investigador, dado que la aplicación se encargaba del almacenamiento de datos, una simple configuración errónea de Firebase permitió que personas ajenas tuvieran acceso a chats confidenciales de IA. (Edward )
No es necesario que dejes de usar herramientas de IA para protegerte. Con unas cuantas decisiones informadas, puedes reducir el riesgo y seguir utilizando estas aplicaciones cuando te resulten útiles.
Las conversaciones con IA pueden parecer privadas, especialmente cuando estás estresado, sientes curiosidad o buscas respuestas. Sin embargo, no todas las aplicaciones gestionan las conversaciones de forma segura. Antes de compartir problemas personales profundos, inquietudes médicas, detalles financieros o preguntas que podrían suponer un riesgo legal si se revelaran, tómate tu tiempo para comprender cómo protege tus datos la tienda de aplicaciones. Si esas protecciones no están claras, considera alternativas más seguras, como profesionales de confianza o servicios con controles de privacidad más estrictos.
No te fijes solo en el número de descargas y las valoraciones con estrellas. Comprueba quién gestiona la aplicación, cuánto tiempo lleva disponible y si su política de privacidad explica claramente cómo se almacenan y protegen los datos de los usuarios.
Incluso cuando una aplicación afirma proteger la privacidad, muchas herramientas de IA registran las conversaciones con fines de resolución de problemas o mejora de modelos. Considera los chats como registros potencialmente permanentes en lugar de mensajes temporales.
Algunas aplicaciones de IA te permiten iniciar sesión con Google, Apple o una cuenta de correo electrónico. Aunque resulta cómodo, esto puede vincular directamente los historiales de chat con tu identidad real. Siempre que sea posible, evita vincular las herramientas de IA a las cuentas principales que utilizas para el trabajo, la banca o la comunicación personal.
Las aplicaciones de IA pueden solicitar un acceso superior al necesario para funcionar. Revisa cuidadosamente los permisos y desactiva todo lo que no sea esencial. Si la aplicación ofrece opciones para eliminar el historial de chat, limitar la retención de datos o desactivar la sincronización, activa esas configuraciones.
Tu huella digital va más allá de las aplicaciones de inteligencia artificial. Cualquiera puede encontrar datos personales sobre ti con una simple Google , incluyendo tu número de teléfono, dirección, fecha de nacimiento y número de la Seguridad Social. Los profesionales del marketing compran esta información para orientar sus anuncios. En casos más graves, los estafadores y los ladrones de identidad violan la seguridad de los corredores de datos, dejando los datos personales expuestos o circulando en la web oscura. El uso de un servicio de eliminación de datos ayuda a reducir lo que se puede vincular contigo si se produce una violación de la seguridad.
Aunque ningún servicio puede garantizar la eliminación completa de tus datos de Internet, un servicio de eliminación de datos es realmente una opción inteligente. No son baratos, pero tampoco lo es tu privacidad. Estos servicios hacen todo el trabajo por ti, supervisando activamente y borrando sistemáticamente tu información personal de cientos de sitios web. Es lo que me da tranquilidad y ha demostrado ser la forma más eficaz de borrar tus datos personales de Internet. Al limitar la información disponible, reduces el riesgo de que los estafadores crucen los datos de las filtraciones con la información que puedan encontrar en la web oscura, lo que les dificulta atacarte.
Echa un vistazo a mis mejores opciones de servicios de eliminación de datos y obtén un análisis gratuito para averiguar si tu información personal ya está en la web visitando Cyberguy.com.
Realiza un análisis gratuito para averiguar si tu información personal ya está en la web: Cyberguy.com.
Las aplicaciones de chat con IA avanzan rápidamente, pero la seguridad sigue estando rezagada. Este incidente demuestra cómo un solo error de configuración puede exponer millones de conversaciones profundamente personales. Hasta que no se generalicen protecciones más sólidas, debes tratar los chats con IA con precaución y limitar lo que compartes. La comodidad es real, pero también lo es el riesgo.
¿Consideras que tus chats con IA son privados o esta historia ha cambiado lo que estás dispuesto a compartir con estas aplicaciones? Cuéntanos tu opinión escribiéndonos a Cyberguy.com.
Suscríbete a mi informe gratuito CyberGuy Report
Recibe mis mejores consejos tecnológicos, alertas de seguridad urgentes y ofertas exclusivas directamente en tu bandeja de entrada. Además, obtendrás acceso instantáneo a mi Ultimate Scam Survival Guide (Guía definitiva para sobrevivir a las estafas), gratis al unirte a mi CYBERGUY.COM .
HAZ CLIC AQUÍ PARA DESCARGAR LA APP DE FOX NEWS
Copyright 2026 CyberGuy.com. Todos los derechos reservados.
https://www.foxnews.com/tech/millions-ai-chat-messages-exposed-app-data-leak