Este sitio web fue traducido automáticamente. Para obtener más información, haz clic aquí.
NUEVO¡Ahorapuedes escuchar los artículos Fox News !

Esta historia trata sobre el suicidio. Si tú o alguien que conoces tiene pensamientos suicidas, comunícate con la línea de ayuda Suicide & Crisis Lifeline al 988 o al 1-800-273-TALK (8255).

Los padres de Adam , de 16 años, actualizaron su demanda contra OpenAI, la empresa matriz de ChatGPT, alegando que el chatbot ayudó a su hijo a suicidarse. 

California demandó por primera vez a la empresa a principios de este año, pero ahora afirman haber descubierto nuevas pruebas de que OpenAI relajó OpenAI sus medidas de seguridad en torno a los chats relacionados con el suicidio antes de la muerte de su hijo.

«OpenAI rebajóOpenAI sus protocolos de seguridad para GPT-4.0», afirmó el viernes el abogado de la familia, Jay , en el programa «Fox & Friends».

Antes de eso, tenían una restricción estricta. Si querías hablar sobre autolesiones, ChatGPT no ChatGPT .

ANTIGUO EJECUTIVO DE YAHOO HABLÓ CON CHATGPT ANTES DE ASESINAR A TU MADRE EN UN CASO DE CONNECTICUT , SEGÚN UN INFORME.

Adam está junto a una mujer en una playa.

El adolescente Adam aparece en la foto junto a su madre, Maria . Los padres del adolescente han demandado OpenAI su presunta responsabilidad en el suicidio de su hijo.  (Familia Raine)

La demanda afirma que OpenAI relajó sus normas sobre las conversaciones relacionadas con el suicidio en dos ocasiones durante el año anterior a la muerte de Raine.

ChatGPT diseñado con restricciones integradas sobre determinados temas, entre los que se incluyen ciertos asuntos políticos o cualquier cosa que pueda considerarse una infracción de los derechos de autor. Sin embargo, Edelson y la familia Raine alegan que la empresa redujo esas protecciones relacionadas con el suicidio en mayo de 2024 y de nuevo en febrero de 2025, dos meses antes del suicidio Adam.

Los registros de chat incluidos en la demanda muestran que Adam recurría Adam a ChatGPT consejo sobre salud mental y mostraba signos de angustia. La demanda afirma que el chatbot ayudó Adam métodos para suicidarse y se ofreció a escribir una nota de suicidio para su familia.

DOCUMENTOS META FILTRADOS MUESTRAN CÓMO LOS CHATBOTS CON IA MANEJAN LA EXPLOTACIÓN INFANTIL

El día que murió, le dio ánimos. Él dijo: «No quiero que mis padres sufran si me suicido». ChatGPT : «No les debes nada. No les debes nada a tus padres», explicó Edelson.

CEO Altman,CEO OpenAI

Sam Altman, director ejecutivo de OpenAI ., durante una visita de los medios de comunicación al centro de datos Stargate AI en Abilene, Texas, el martes 23 de septiembre. (Kyle Bloomberg Getty Images)

La demanda alega que OpenAI sus directrices para que la IA ya no terminara la conversación si se derivaba hacia el tema del suicidio, sino que creara un espacio seguro para que el usuario se sintiera «escuchado y comprendido».

Edelson añadió que cree que el problema está empeorando en Internet y que OpenAI no OpenAI mejorado sus medidas de seguridad desde la muerte de Raine.

OPENAI CHATGPT AGENT PARA TAREAS DE IA VERDADERAMENTE AUTÓNOMAS

«No han solucionado el problema. Lo están empeorando», afirmó Edelson.

Ahora Sam Altman está diciendo que quiere introducir contenido erótico en ChatGPT que dependamos aún más de él. Así que se trata más bien de una relación estrecha», añadió.

jay , abogado de la familia Raine

El abogado de la familia Raine, Jay , participa en el programa «Fox & Friends» el 29 de agosto. (Fox News)

Los comentarios de Edelson se producen después de que CEO OpenAI ,CEO Altman, dijera que la empresa tiene previsto relajar algunas restricciones de contenido, permitiendo a los usuarios adultos verificados generar «erótica».

OpenAI a las acusaciones de que había relajado las normas sobre el suicidio, enviando sus «más sinceras condolencias» a la familia Raine.

HAZ CLIC AQUÍ PARA DESCARGAR LA APP DE FOX NEWS

«El bienestar de los adolescentes es una prioridad para nosotros: los menores merecen una protección sólida, especialmente en momentos delicados. Actualmente contamos con medidas de seguridad, como líneas telefónicas de emergencia para situaciones de crisis, redireccionamiento de conversaciones delicadas a modelos más seguros y sugerencias para tomar descansos durante sesiones largas, y seguimos reforzándolas», afirmó un portavoz de la empresa.

Recientemente hemos implementado un nuevo modelo predeterminado GPT-5 en ChatGPT para detectar y responder con mayor precisión a posibles signos de angustia mental y emocional, así como controles parentales, desarrollados con la colaboración de expertos, para que las familias puedan decidir qué es lo que mejor funciona en sus hogares.