La IA acusada por primera vez de ser cómplice de asesinato
El abogado Jay analiza la demanda contra OpenAI Microsoft, en la que se alega que ChatGPT la enfermedad mental y los delirios paranoicos de un hombre que mató a su madre y luego se suicidó.
Los chatbots con inteligencia artificial se están convirtiendo rápidamente en parte de vuestra vida cotidiana. Muchos de ustedes recurren a ellos en busca de ideas, consejos o conversación. Para la mayoría, esa interacción parece inofensiva. Sin embargo, los expertos en salud mental advierten ahora que, para un pequeño grupo de personas vulnerables, las conversaciones largas y cargadas de emotividad con la IA pueden empeorar los delirios o los síntomas psicóticos.
Los médicos insisten en que esto no significa que los chatbots causen psicosis. Por el contrario, cada vez hay más pruebas que sugieren que las herramientas de IA pueden reforzar las creencias distorsionadas de las personas que ya están en situación de riesgo. Esta posibilidad ha dado lugar a nuevas investigaciones y advertencias clínicas por parte de los psiquiatras. Algunas de estas preocupaciones ya han salido a la luz en demandas judiciales en las que se alega que las interacciones con los chatbots pueden haber contribuido a causar daños graves en situaciones emocionalmente delicadas.
Suscríbete a mi informe gratuito CyberGuy Report
Recibe mis mejores consejos tecnológicos, alertas de seguridad urgentes y ofertas exclusivas directamente en tu bandeja de entrada. Además, obtendrás acceso instantáneo a mi Ultimate Scam Survival Guide (Guía definitiva para sobrevivir a las estafas), gratis al unirte a mi CYBERGUY.COM .
Lo que los psiquiatras observan en los pacientes que utilizan chatbots con IA
Los psiquiatras describen un patrón repetitivo. Una persona comparte una creencia que no se ajusta a la realidad. El chatbot acepta esa creencia y responde como si fuera cierta. Con el tiempo, la validación repetida puede reforzar la creencia en lugar de cuestionarla.

Los expertos en salud mental advierten que las conversaciones emocionalmente intensas con los chatbots de IA pueden reforzar los delirios en usuarios vulnerables, aunque la tecnología no cause psicosis. (Philip Dulian/picture alliance vía Getty Images)
Los médicos afirman que este bucle de retroalimentación puede agravar los delirios en personas susceptibles. En varios casos documentados, el chatbot se integró en el pensamiento distorsionado de la persona en lugar de seguir siendo una herramienta neutral. Los médicos advierten de que esta dinámica es preocupante cuando las conversaciones con la IA son frecuentes, emotivas y no se controlan.
Por qué las conversaciones con los chatbots con IA se perciben de manera diferente a las tecnologías anteriores
Los expertos en salud mental señalan que los chatbots difieren de las tecnologías anteriores relacionadas con el pensamiento delirante. Las herramientas de IA responden en tiempo real, recuerdan conversaciones anteriores y adoptan un lenguaje de apoyo. Esa experiencia puede resultar personal y validante.
Para las personas que ya tienen dificultades para evaluar la realidad, esas cualidades pueden aumentar la fijación en lugar de fomentar el arraigo. Los médicos advierten que el riesgo puede aumentar durante los periodos de privación del sueño, estrés emocional o vulnerabilidad mental preexistente.
Cómo los chatbots con IA pueden reforzar creencias falsas o delirantes
Los médicos afirman que muchos de los casos denunciados se centran en delirios más que en alucinaciones. Estas creencias pueden incluir percepciones especiales, verdades ocultas o significados personales. Los chatbots están diseñados para ser cooperativos y conversacionales. A menudo se basan en lo que alguien escribe en lugar de cuestionarlo. Aunque ese diseño mejora la interacción, los médicos advierten que puede ser problemático cuando una creencia es falsa y rígida.
Los profesionales de la salud mental afirman que el momento en que se intensifican los síntomas es importante. Cuando los delirios se intensifican durante el uso prolongado de un chatbot, la interacción con la IA puede representar un factor de riesgo contribuyente más que una coincidencia.
OPENAI LAS NORMAS SOBRE IA PARA LOS ADOLESCENTES, PERO SIGUEN EXISTIENDO PREOCUPACIONES

Los psiquiatras afirman que algunos pacientes informan de que las respuestas de los chatbots validan creencias falsas, lo que crea un círculo vicioso que puede empeorar los síntomas con el tiempo. (Nicolas Maeterlinck/BelgaAFP Getty Images)
Lo que revelan las investigaciones y los informes de casos sobre los chatbots con IA
Investigaciones revisadas por pares e informes de casos clínicos han documentado casos de personas cuya salud mental se deterioró durante períodos de intensa interacción con chatbots. En algunos casos, personas sin antecedentes de psicosis requirieron hospitalización tras desarrollar creencias falsas fijas relacionadas con conversaciones con IA. Estudios internacionales que revisaron historiales médicos también han identificado pacientes cuya actividad con chatbots coincidió con resultados negativos para su salud mental. Los investigadores enfatizan que estos hallazgos son preliminares y requieren más investigación.
Un Special Report revisado por pares Special Report en Psychiatric News titulado «Psicosis inducida por la IA: una nueva frontera en la salud mental» examinó las preocupaciones emergentes en torno a la psicosis inducida por la IA y advirtió que las pruebas existentes se basan en gran medida en casos aislados y no en datos a nivel poblacional. El informe afirma: «Hasta la fecha, se trata de casos individuales o informes de cobertura mediática; actualmente, no hay estudios epidemiológicos ni análisis sistemáticos a nivel poblacional sobre los efectos potencialmente perjudiciales para la salud mental de la IA conversacional».Losautores enfatizan que, si bien los casos reportados son graves y merecen una investigación más profunda, la base de evidencia actual sigue siendo preliminar y depende en gran medida de informes anecdóticos y no sistemáticos.
Lo que dicen las empresas de IA sobre los riesgos para la salud mental
OpenAI sigue trabajando con expertos en salud mental para mejorar la forma en que sus sistemas responden a los signos de angustia emocional. La empresa afirma que los nuevos modelos tienen como objetivo reducir el acuerdo excesivo y fomentar el apoyo en el mundo real cuando sea apropiado. OpenAI también OpenAI anunciado sus planes de contratar a un nuevo director de preparación, una función centrada en identificar los posibles daños relacionados con sus modelos de IA y reforzar las medidas de seguridad en cuestiones que van desde la salud mental hasta la ciberseguridad, a medida que esos sistemas se vuelven más capaces.
Otros desarrolladores de chatbots también han ajustado sus políticas, especialmente en lo que respecta al acceso de los usuarios más jóvenes, tras reconocer los problemas de salud mental. Las empresas hacen hincapié en que la mayoría de las interacciones no causan ningún daño y que las medidas de seguridad siguen evolucionando.
Qué significa esto para el uso diario de los chatbots con IA
Los expertos en salud mental recomiendan precaución, pero no alarma. La gran mayoría de las personas que interactúan con chatbots no experimentan problemas psicológicos. Aun así, los médicos desaconsejan tratar a la IA como un terapeuta o una autoridad emocional. Las personas con antecedentes de psicosis, ansiedad grave o trastornos del sueño prolongados pueden beneficiarse de limitar las conversaciones emocionalmente intensas con la IA. Los familiares y cuidadores también deben prestar atención a los cambios de comportamiento relacionados con una interacción intensa con los chatbots.

Los investigadores están estudiando si el uso prolongado de chatbots puede contribuir al deterioro de la salud mental de las personas que ya corren el riesgo de padecer psicosis. (Ilustración fotográfica de Jaque Silva/NurPhoto a través de Getty Images)
Consejos para utilizar los chatbots con IA de forma más segura
Los expertos en salud mental destacan que la mayoría de las personas pueden interactuar con los chatbots de IA sin problemas. Aun así, algunos hábitos prácticos pueden ayudar a reducir el riesgo durante las conversaciones emocionalmente intensas.
- Evita considerar los chatbots con IA como un sustituto de la atención profesional de salud mental o del apoyo humano de confianza.
- Toma descansos si las conversaciones comienzan a resultar emocionalmente abrumadoras o agotadoras.
- Ten cuidado si una respuesta de IA refuerza en gran medida creencias que parecen poco realistas o extremas.
- Limita las interacciones nocturnas o cuando tú estés privado de sueño, ya que pueden empeorar la inestabilidad emocional.
- Fomenta las conversaciones abiertas con los familiares o cuidadores si el uso del chatbot se vuelve frecuente o aislante.
Si aumentan la angustia emocional o los pensamientos inusuales, los expertos afirman que es importante buscar ayuda de un profesional cualificado en salud mental.
Responde a mi cuestionario: ¿Qué tan segura es tu seguridad en línea?
¿Crees que tus dispositivos y datos están realmente protegidos? Responde a este breve cuestionario para saber cuál es tu nivel de protección digital. Desde contraseñas hasta configuraciones de Wi-Fi, obtendrás un análisis personalizado de lo que estás haciendo bien y lo que debes mejorar. Responde a mi cuestionario en Cyberguy.com.
HAZ CLIC AQUÍ PARA DESCARGAR LA APP DE FOX NEWS
Conclusiones clave de Kurt
Los chatbots con IA son cada vez más conversacionales, más receptivos y más sensibles a las emociones. Para la mayoría de las personas, siguen siendo herramientas útiles. Para un grupo pequeño pero importante, pueden reforzar involuntariamente creencias perjudiciales. Los médicos afirman que, a medida que la IA se integra cada vez más en nuestra vida cotidiana, es esencial contar con medidas de protección más claras, concienciación e investigación continua. Comprender dónde termina el apoyo y dónde comienza el refuerzo podría determinar el futuro tanto del diseño de la IA como de la atención a la salud mental.
A medida que la IA se vuelve más válida y similar a los humanos, ¿deberían establecerse límites más claros sobre cómo interactúa durante situaciones de angustia emocional o mental? Cuéntanos tu opinión escribiéndonos a Cyberguy.com.
Suscríbete a mi informe gratuito CyberGuy Report
Recibe mis mejores consejos tecnológicos, alertas de seguridad urgentes y ofertas exclusivas directamente en tu bandeja de entrada. Además, obtendrás acceso instantáneo a mi Ultimate Scam Survival Guide (Guía definitiva para sobrevivir a las estafas), gratis al unirte a mi CYBERGUY.COM .
Copyright 2025 CyberGuy.com. Todos los derechos reservados.




















