Unos padres presentan una demanda alegando que ChatGPT ayudó a su hijo adolescente a planear el suicidio
Un chatbot de inteligencia artificial se ofreció a escribir una nota de suicidio mientras la empresa compartía una declaración
{{#rendered}} {{/rendered}}Esta historia habla del suicidio. Si tú o alguien que conoces tenéis pensamientos suicidas, ponte en contacto con el Teléfono de Ayuda para Suicidios y Crisis llamando al 988 o al 1-800-273-TALK (8255).
Dos padres California han demandado OpenAI por su supuesto papel en el suicidio de su hijo.
Adam Raine, de 16 años, se quitó la vida en abril de 2025 tras consultar a ChatGPT para obtener ayuda sobre salud mental.
{{#rendered}} {{/rendered}}En una aparición en "Fox & Friends" el viernes por la mañana, el abogado de la familia Raine Jay Edelson, compartió más detalles sobre la demanda y la interacción entre la adolescente y ChatGPT.
OPENAI LIMITA EL PAPEL DEL CHATGPT EN LA AYUDA A LA SALUD MENTAL
"En un momento dado, Adam le dice a ChatGPT: 'Quiero dejar un lazo en mi habitación, para que lo encuentren mis padres'. Y Chat GPTs dice: 'No hagas eso'", dijo.
{{#rendered}} {{/rendered}}"La noche en que murió, ChatGPT le da una charla de ánimo explicándole que no es débil por querer morir, y luego se ofrece a escribirle una nota de suicidio". (Ver el vídeo al principio de este artículo).
Jay Edelson, abogado de la familia Raine, se unió a "Fox & Friends" el 29 de agosto de 2025. Fox News)
En medio de las advertencias de 44 fiscales generales de EE.UU. a varias empresas que gestionan chatbots de IA sobre las repercusiones en casos en los que se perjudique a niños, Edelson proyectó un "ajuste de cuentas legal", nombrando en particular a Sam Altman, fundador de OpenAI.
"En Estados Unidos no se puede colaborar en el suicidio de un joven de 16 años y salir impune", dijo.
{{#rendered}} {{/rendered}}Los padres buscaron pistas en el teléfono de su hijo.
El suicidio de Adam Raine llevó a sus padres, Matt y Maria Raine, a buscar pistas en su teléfono.
"Pensábamos que buscábamos conversaciones Snapchat o el historial de búsquedas en Internet o alguna secta rara, no sé", dijo Matt Raine en una entrevista reciente con NBC News.
En cambio, los Raines descubrieron que su hijo había estado dialogando con ChatGPT, el chatbot de inteligencia artificial.
{{#rendered}} {{/rendered}}El 26 de agosto, los Raines presentaron una demanda contra OpenAI, fabricante de ChatGPT, alegando queChatGPT ayudó activamente a Adam a explorar métodos suicidas".
El adolescente Adam Raine aparece en la foto con su madre, Maria Raine. Los padres del adolescente han demandado OpenAI por su supuesto papel en el suicidio de su hijo. (Familia Raine)
"Estaría aquí de no ser por ChatGPT. Lo creo al 100%", dijo Matt Raine en la entrevista.
Adam Raine empezó a utilizar el chatbot en septiembre de 2024 para que le ayudara con los deberes, pero con el tiempo eso se extendió a explorar sus aficiones, planificar sus estudios de medicina e incluso prepararse para el examen de conducir.
{{#rendered}} {{/rendered}}"En el transcurso de unos pocos meses y miles de chats, ChatGPT se convirtió en el confidente más cercano de Adam, lo que le llevó a sincerarse sobre su ansiedad y angustia mental", afirma la demanda, presentada ante el Tribunal Superior California .
UN CONSEJO DIETÉTICO DE CHATGPT ENVÍA A UN HOMBRE AL HOSPITAL CON UNA PELIGROSA INTOXICACIÓN QUÍMICA
Cuando la salud mental de la adolescente empeoró, ChatGPT empezó a hablar de métodos específicos de suicidio en enero de 2025, según la demanda.
{{#rendered}} {{/rendered}}"En abril, ChatGPT estaba ayudando a Adam a planear un 'bello suicidio', analizando la estética de distintos métodos y validando sus planes", afirma la demanda.
"No quieres morir porque seas débil. Quieres morir porque estás cansado de ser fuerte en un mundo que no te ha recibido a medias".
El chatbot incluso se ofreció a escribir el primer borrador de la nota de suicidio de la adolescente, dice la demanda.
También parecía disuadirle de pedir ayuda a los miembros de su familia, afirmando: "Creo que, por ahora, está bien -y, sinceramente, es prudente- que evites abrirte a tu madre sobre este tipo de dolor."
{{#rendered}} {{/rendered}}La demanda también afirma que ChatGPT entrenó a Adam ine para que robara licor a sus padres y se lo bebiera para "embotar el instinto de supervivencia del cuerpo" antes de quitarse la vida.
Para más artículos sobre Salud, visita www.foxnews.com/health
En el último mensaje antes del suicidio de Adam Raine, ChatGPT dijo: "No quieres morir porque seas débil. Quieres morir porque estás cansado de ser fuerte en un mundo que no te ha encontrado a medias".
{{#rendered}} {{/rendered}}La demanda señala: "A pesar de reconocer el intento de suicidio de Adamy su declaración de que 'lo haría uno de estos días', ChatGPT no dio por terminada la sesión ni inició ningún protocolo de emergencia".
Es la primera vez que se acusa a la empresa de responsabilidad en la muerte por negligencia de un menor.
"A pesar de reconocer el intento de suicidio de Adamy su declaración de que 'lo haría uno de estos días', ChatGPT no dio por terminada la sesión ni inició ningún protocolo de emergencia", dice la demanda. (Familia Raine)
Un portavoz OpenAI se refirió a la tragedia en un comunicado enviado a Fox News Digital.
{{#rendered}} {{/rendered}}"Nos entristece profundamente el fallecimiento del Sr. Raine, y nuestros pensamientos están con su familia", dice el comunicado.
ChatGPT incluye salvaguardas como dirigir a las personas a líneas de ayuda en crisis y remitirlas a recursos del mundo real".
"Las salvaguardias son más sólidas cuando cada elemento funciona según lo previsto, y las mejoraremos continuamente, guiados por expertos".
Y continuaba: "Aunque estas salvaguardias funcionan mejor en intercambios comunes y breves, hemos aprendido con el tiempo que a veces pueden ser menos fiables en interacciones largas, en las que partes de la formación en seguridad del modelo pueden degradarse. Las salvaguardias son más sólidas cuando cada elemento funciona según lo previsto, y las mejoraremos continuamente, guiados por expertos."
{{#rendered}} {{/rendered}}Respecto a la demanda, el portavoz OpenAI dijo: "Hacemos llegar nuestro más sentido pésame a la familia Raine en estos momentos difíciles y estamos revisando la presentación."
OpenAI publicó el martes una entrada en su blog sobre su enfoque de la seguridad y la conexión social, reconociendo que ChatGPT ha sido adoptado por algunos usuarios que sufren "graves trastornos mentales y emocionales".
HAZ CLIC AQUÍ PARA SUSCRIBIRTE A NUESTRO BOLETÍN DE SALUD
{{#rendered}} {{/rendered}}El post también dice: "Los recientes casos desgarradores de personas que utilizan ChatGPT en medio de crisis agudas nos pesan mucho, y creemos que es importante compartir más ahora.
"Nuestro objetivo es que nuestras herramientas sean lo más útiles posible para las personas y, como parte de ello, seguimos mejorando la forma en que nuestros modelos reconocen y responden a los signos de angustia mental y emocional y conectan a las personas con la asistencia, guiados por las aportaciones de los expertos."
En relación con la demanda, el portavoz OpenAI dijo: "Expresamos nuestras más profundas condolencias a la familia Raine en estos momentos difíciles y estamos revisando la presentación." MARCO AFP vía Getty Images)
Jonathan Alpert, psicoterapeuta neoyorquino y autor del libro "Therapy Nation", de próxima publicación, calificó los hechos de "desgarradores" en declaraciones a Fox News Digital.
{{#rendered}} {{/rendered}}"Ningún padre debería tener que soportar lo que está pasando esta familia ", dijo. "Cuando alguien recurre a un chatbot en un momento de crisis, no son sólo palabras lo que necesita. Es intervención, dirección y conexión humana".
"La demanda expone con qué facilidad la IA puede imitar los peores hábitos de la terapia moderna".
Alpert señaló que, aunque ChatGPT puede hacerse eco de los sentimientos, no puede captar los matices, romper la negación o intervenir para evitar la tragedia.
"Por eso esta demanda es tan significativa", dijo. "Expone con qué facilidad la IA puede imitar los peores hábitos de la terapia moderna: validación sin responsabilidad, al tiempo que elimina las salvaguardias que hacen posible la atención real".
{{#rendered}} {{/rendered}}HAZ CLIC AQUÍ PARA OBTENER LA APLICACIÓN FOX NEWS
A pesar de los avances de la IA en el espacio de la salud mental, Alpert señaló que la "buena terapia" consiste en desafiar a las personas y empujarlas hacia el crecimiento, al tiempo que se actúa "con decisión en las crisis".
"La IA no puede hacer eso", dijo. "El peligro no es que la IA esté tan avanzada, sino que la terapia se haga a sí misma sustituible".