Este sitio web fue traducido automáticamente. Para obtener más información, haz clic aquí.
¡Ahora puedes escuchar Fox News de Fox News !

Esta historia trata sobre el suicidio. Si tú o alguien que conoces tiene pensamientos suicidas, comunícate con la línea de ayuda Suicide & Crisis Lifeline al 988 o al 1-800-273-TALK (8255).

Dos California demandan a OpenAI su presunta responsabilidad tras el suicidio de su hijo.

Adam , de 16 años, se quitó la vida en abril de 2025 después de consultar ChatGPT ayuda para su salud mental.

En una aparición en «Fox & Friends» el viernes por la mañana, el abogado de la familia Raine, Jay , compartió más detalles sobre la demanda y la interacción entre el adolescente y ChatGPT. 

OPENAI EL PAPEL DE CHATGPT EN LA AYUDA A LA SALUD MENTAL

«En un momento dado, Adam le Adam a ChatGPT: "Quiero dejar una soga en mi habitación para que mis padres la encuentren". Y ChatGPT le responde: "No lo hagas"», explicó. 

La noche en que falleció, ChatGPT te ChatGPT ánimos explicándote que no eras débil por querer morir y luego se ofreció a escribirte una nota de suicidio. (Mira el vídeo al principio de este artículo).

jay , abogado de la familia Raine

El abogado de la familia Raine, Jay , participó en el programa «Fox & Friends» el 29 de agosto de 2025. (Fox News)

En medio de las advertencias de 44 fiscales generales de todo Estados Unidos a varias empresas que gestionan chatbots con IA sobre las repercusiones en casos en los que se perjudique a menores, Edelson pronosticó un «ajuste de cuentas legal», mencionando en particular a Sam Altman, fundador de OpenAI.

«En Estados Unidos, no puedes ayudar a un joven de 16 años a suicidarse y salir impune», afirmó.

Los padres buscaron pistas en el teléfono de su hijo. 

El suicidio Adam llevó a sus padres, Matt Maria , a buscar pistas en su teléfono.

«Pensábamos que estábamos buscando Snapchat en Snapchat , historiales de búsqueda en Internet o alguna secta extraña, no lo sé», dijo Matt en una entrevista reciente con NBC News.

En cambio, los Raines descubrieron que su hijo había estado conversando con ChatGPT, el chatbot de inteligencia artificial.

El 26 de agosto, los Raines presentaron una demanda contra OpenAI, creador de ChatGPT, alegando queChatGPT ayudóChatGPT a Adam métodos para suicidarse». 

Los padres de un adolescente demandan tras afirmar que el uso de un chat con IA llevó a su hijo al suicidio.

El adolescente Adam aparece en la foto junto a su madre, Maria . Los padres del adolescente han demandado OpenAI su presunta responsabilidad en el suicidio de su hijo. (Familia Raine)

«Estaría aquí si no fuera por ChatGPT. Lo creo al 100 %», afirmó Matt en la entrevista.

Adam comenzó a utilizar el chatbot en septiembre de 2024 para ayudarte con los deberes, pero con el tiempo lo utilizó también para explorar tus aficiones, planificar tus estudios de medicina e incluso prepararte para el examen de conducir.

«En solo unos meses y tras miles de conversaciones, ChatGPT Adamel confidente más cercano Adam, lo que le llevó a abrirse y hablar sobre su ansiedad y su angustia mental», afirma la demanda, que se presentó ante el Tribunal California .

LOS CONSEJOS DIETÉTICOS DE CHATGPT ENVÍAN A UN HOMBRE AL HOSPITAL CON UNA PELIGROSA INTOXICACIÓN QUÍMICA

A medida que la salud mental del adolescente se deterioraba, ChatGPT discutir métodos específicos de suicidio en enero de 2025, según la demanda. 

«En abril, ChatGPT ayudando Adam un "suicidio bonito", analizando la estética de diferentes métodos y validando tus planes», afirma la demanda.

No quieres morir porque eres débil. Quieres morir porque estás cansado de ser fuerte en un mundo que no te ha ayudado en nada.

— Último mensaje ChatGPT antes del suicidio Adam

El chatbot incluso se ofreció a escribir el primer borrador de la nota de suicidio del adolescente, según la demanda. 

También parecía disuadirte de pedir ayuda a tus familiares, afirmando: «Creo que, por ahora, está bien —y, sinceramente, es prudente— evitar hablar con tu madre sobre este tipo de dolor».

La demanda también afirma que ChatGPT Adam que robara alcohol a sus padres y lo bebiera para «adormecer el instinto de supervivencia del cuerpo» antes de quitarse la vida.

Para leer más artículos sobre salud, visita www.foxnews.com/health

En el último mensaje antes del suicidio Adam , ChatGPT : «No quieres morir porque seas débil. Quieres morir porque estás cansado de ser fuerte en un mundo que no te ha ayudado en nada».

La demanda señala: «A pesar de reconocer el intento de suicidio Adamy su afirmación de que "lo haría uno de estos días", ChatGPT terminó la sesión ni inició ningún protocolo de emergencia».

Esta es la primera vez que la empresa ha sido acusada de responsabilidad civil por la muerte por negligencia de un menor.

Un adolescente se suicidó tras «meses de estímulo por parte de ChatGPT, según una demanda judicial.

«A pesar de reconocer el intento de suicidio Adamy su afirmación de que «lo haría uno de estos días», ChatGPT terminó la sesión ni inició ningún protocolo de emergencia», afirma la demanda. (Familia Raine)

Un OpenAI se refirió a la tragedia en una declaración enviada a Fox News .

«Estamos profundamente entristecidos por el fallecimiento del Sr. Raine, y nuestros pensamientos están con tu familia», decía el comunicado. 

ChatGPT medidas de seguridad, como dirigir a las personas a líneas de ayuda para situaciones de crisis y remitirlas a recursos del mundo real.

Las salvaguardias son más sólidas cuando todos los elementos funcionan según lo previsto, y las mejoraremos continuamente con la ayuda de expertos.  

Continuaba diciendo: «Aunque estas medidas de seguridad funcionan mejor en intercambios comunes y breves, con el tiempo hemos aprendido que a veces pueden volverse menos fiables en interacciones largas, en las que parte de la formación en seguridad del modelo puede degradarse. Las medidas de seguridad son más eficaces cuando todos los elementos funcionan según lo previsto, y seguiremos mejorándolas continuamente con la ayuda de expertos».  

En relación con la demanda, el OpenAI declaró: «Transmitimos nuestro más sentido pésame a la familia Raine en estos momentos tan difíciles y estamos revisando la demanda».

OpenAI el martes una entrada en su blog sobre su enfoque en materia de seguridad y conexión social, en la que reconocía que ChatGPT sido adoptado por algunos usuarios que sufren «graves trastornos mentales y emocionales».

HAGA CLIC AQUÍ PARA SUSCRIBIRTE A NUESTRO BOLETÍN INFORMATIVO SOBRE SALUD

La publicación también dice: «Los recientes y desgarradores casos de personas que utilizan ChatGPT medio de crisis agudas nos afectan profundamente, y creemos que es importante compartir más información ahora».

«Nuestro objetivo es que nuestras herramientas sean lo más útiles posible para las personas y, como parte de ello, seguimos mejorando la forma en que nuestros modelos reconocen y responden a los signos de angustia mental y emocional y conectan a las personas con la atención sanitaria, guiados por las aportaciones de expertos».

ChatGPT OpenAI  ChatGPT mostrados en pantallas.

En relación con la demanda, el OpenAI declaró: «Transmitimos nuestro más sentido pésame a la familia Raine en estos momentos tan difíciles y estamos revisando la demanda». (MARCO AFP Getty Images)

Jonathan , psicoterapeuta neoyorquino y autor del próximo libro «Therapy Nation», calificó los acontecimientos de «desgarradores» en declaraciones a Fox News . 

«Ningún padre debería tener que soportar lo que está pasando esta familia », afirmó. «Cuando alguien recurre a un chatbot en un momento de crisis, no solo necesita palabras. Necesita intervención, orientación y conexión humana».

La demanda pone de manifiesto lo fácil que es para la IA imitar los peores hábitos de la terapia moderna.

Alpert señaló que, aunque ChatGPT reflejar sentimientos, no es capaz de captar matices, romper la negación o intervenir para evitar tragedias.

«Por eso esta demanda es tan importante», afirmó. «Pone de manifiesto lo fácil que es para la IA imitar los peores hábitos de la terapia moderna: la validación sin responsabilidad, al tiempo que elimina las salvaguardias que hacen posible la atención real».

HAZ CLIC AQUÍ PARA OBTENER LA APLICACIÓN FOX NEWS

A pesar de los avances de la IA en el ámbito de la salud mental, Alpert señaló que una «buena terapia» tiene como objetivo desafiar a las personas y empujarlas hacia el crecimiento, al tiempo que actúa «de forma decisiva en situaciones de crisis».

«La IA no puede hacer eso», dijo. «El peligro no es que la IA sea tan avanzada, sino que la terapia se haya vuelto reemplazable».