Este sitio web fue traducido automáticamente. Para obtener más información, por favor haz clic aquí.
NUEVO¡Ahorapuedes escuchar los artículos Fox News !

ChatGPT pronto podría alertar a la policía cuando los adolescentes hablen de suicidio. ElCEO y cofundador OpenAI , Sam Altman, reveló el cambio durante una entrevista reciente. ChatGPT, el chatbot de inteligencia artificial ampliamente utilizado que puede responder preguntas y mantener conversaciones, se ha convertido en una herramienta cotidiana para millones de personas. Sus comentarios mark un cambio importante en la forma en que la empresa de IA puede tratar las crisis de salud mental.

Suscríbete a mi Informe CyberGuy GRATUITO
Recibe mis mejores consejos tecnológicos, alertas de seguridad urgentes y ofertas exclusivas directamente en tu bandeja de entrada. Además, obtendrás acceso instantáneo a mi Guía Definitiva de Supervivencia a las Estafas - gratis al unirte a mi CyberGuy.com/Boletín

Sam AltmanCEO OpenAI

Sam Altman, director ejecutivo de OpenAI Inc. (Nathan Bloomberg vía Getty Images)

Por qué OpenAI está considerando las alertas a la policía

Altman dijo: "Es muy razonable que en los casos de jóvenes que hablan de suicidio, en serio, cuando no podemos ponernos en contacto con los padres, llamemos a las autoridades."

Hasta ahora, la respuesta de ChatGPT a los pensamientos suicidas ha sido sugerir líneas directas. Esta nueva política señala el paso de las sugerencias pasivas a la intervención activa.

Altman admitió que el cambio tiene un coste para la privacidad. Subrayó que los datos de los usuarios son importantes, pero reconoció que la prevención de tragedias debe ser lo primero.

modelo lingüístico de inteligencia artificial

Los adolescentes pueden acceder fácilmente a ChatGPT desde un dispositivo móvil. (Jaap Arriens/NurPhoto vía Getty Images)

Tragedias que motivaron la acción

El cambio se produce tras las demandas relacionadas con suicidios de adolescentes. El caso más sonado es el de Adam Raine, California de 16 años. Su familia alega ChatGPT proporcionó a un "libro de jugadas paso a paso" para el suicidio, que incluía instrucciones para atarse una soga e incluso redactar una nota de despedida.

Tras la muerte de Raine en abril, sus padres demandaron OpenAI. Alegaron que la empresa no impidió que su IA guiara a su hijo hacia el daño.

Otra demanda acusó al chatbot rival Character.AI de negligencia. Al parecer, un adolescente de 14 años se quitó la vida tras establecer una intensa conexión con un bot basado en un personaje televisivo. En conjunto, estos casos ponen de manifiesto lo rápido que los adolescentes pueden establecer vínculos malsanos con la IA. 

Un adolescente se suicidó tras "meses de estímulo por parte ChatGPT", según una demanda judicial

Adam Raine, un adolescente California , se quitó la vida en abril de 2025 entre afirmaciones de ChatGPT le entrenó (Familia Raine)

¿Hasta qué punto está extendido el problema?

Altman señaló las cifras mundiales para justificar medidas más contundentes. Señaló que unas 15.000 personas se quitan la vida cada semana en todo el mundo. Dado que el 10% del mundo utiliza ChatGPT, calculó que unas 1.500 personas suicidas pueden interactuar con el chatbot semanalmente.

Las investigaciones respaldan la preocupación por la dependencia de los adolescentes de la IA. Una encuesta de Common Sense Media descubrió que el 72% de los adolescentes estadounidenses utilizan herramientas de IA, y que uno de cada ocho busca apoyo para su salud mental en ellas. 

EX EJECUTIVO DE YAHOO HABLÓ CON CHATGPT ANTES DE MATAR A SU MADRE EN EL ASESINATO-SUICIDIO CONNECTICUT : INFORME

Plan de 120 días de OpenAI

En una entrada de blog, OpenAI esbozó las medidas para reforzar las protecciones. La empresa dijo que lo hará:

  • Ampliar las intervenciones para las personas en crisis.
  • Facilita el acceso a los servicios de emergencia.
  • Habilita las conexiones con contactos de confianza.
  • Implantar salvaguardias más sólidas para los adolescentes.

Para orientar estos esfuerzos, OpenAI creó un Consejo de Expertos en Bienestar e IA. Este grupo incluye especialistas en desarrollo juvenil, salud mental e interacción persona-ordenador. Junto a ellos, OpenAI trabaja con una Red Mundial de Médicos formada por más de 250 médicos de 60 países.

Estos expertos están ayudando a diseñar controles parentales y directrices de seguridad. Su función es garantizar que las respuestas de la IA se ajusten a las últimas investigaciones sobre salud mental.

ChatGPT puede ser una herramienta útil para procesar y sintetizar rápidamente la información.

Un adolescente usando ChatGPT. (Frank Rumpenhorst/Picture Alliance vía Getty Images)

Nuevas protecciones para las familias

En pocas semanas, los padres podrán

  • Vincula su cuenta ChatGPT con sus adolescentes.
  • Ajusta el comportamiento del modelo para que coincida con las normas apropiadas para su edad.
  • Desactiva funciones como la memoria y el historial de chat.
  • Recibe alertas si el sistema detecta sufrimiento agudo.

Estas alertas están diseñadas para avisar pronto a los padres. Aun así, Altman admitió que cuando no se puede localizar a los padres, la policía puede convertirse en la opción alternativa. 

AI WORM 1

Los adolescentes pueden utilizarChatGPT para hacer los deberes. (Kurt "CyberGuy" Knutsson)

Límites de las garantías de la IA

OpenAI admite que sus protecciones pueden debilitarse con el tiempo. Mientras que los chats cortos suelen redirigir a los usuarios a líneas directas de crisis, las conversaciones largas pueden erosionar las protecciones incorporadas. Esta "degradación de la seguridad" de ya ha dado lugar a casos en los que adolescentes recibieron consejos inseguros tras un uso prolongado.

Los expertos advierten de que confiar en la IA para la salud mental puede ser arriesgado. ChatGPT está entrenado para parecer humano, pero no puede sustituir a la terapia profesional. La preocupación es que los adolescentes vulnerables pueden no notar la diferencia.

LOS ADOLESCENTES RECURREN CADA VEZ MÁS A LA AI EN BUSCA DE AMISTAD A MEDIDA QUE SE AGRAVA LA CRISIS NACIONAL DE SOLEDAD

Pasos que los padres pueden dar ahora

Los padres no deben esperar a que lleguen las nuevas funciones. Aquí tienes formas inmediatas de mantener a salvo a los adolescentes:

1) Inicia conversaciones periódicas

Haz preguntas abiertas sobre la escuela, las amistades y los sentimientos. Un diálogo sincero reduce la posibilidad de que los adolescentes se dirijan sólo a AI en busca de respuestas.

2) Establece límites digitales

Utiliza controles parentales en dispositivos y aplicaciones. Limita el acceso a las herramientas de IA a última hora de la noche, cuando los adolescentes pueden sentirse más aislados.

3) Vincula cuentas cuando esté disponible

Aprovecha las nuevas funciones OpenAI que conectan los perfiles de padres y adolescentes para una supervisión más estrecha 

4) Fomentar el apoyo profesional

Refuerza que la atención a la salud mental está disponible a través de médicos, consejeros o líneas directas. La AI nunca debe ser la única salida.

5) Mantén visibles los contactos de crisis

Coloca los números de las líneas directas y de texto donde los adolescentes puedan verlos. Por ejemplo, en EE.UU., llama o envía un mensaje de texto al 988 para llamar al Suicide & Crisis Lifeline.

6) Vigila los cambios

Observa cambios en el estado de ánimo, el sueño o el comportamiento. Combina estas señales con los patrones online para detectar los riesgos a tiempo.

Responde a mi cuestionario: ¿Cómo de segura es tu seguridad en Internet?

¿Crees que tus dispositivos y datos están realmente protegidos? Haz este rápido cuestionario para ver en qué punto se encuentran tus hábitos digitales. Desde las contraseñas hasta la configuración Wi-Fi, obtendrás un desglose personalizado de lo que haces bien, y de lo que necesitas mejorar. Haz mi cuestionario aquí: CyberGuy.com/Quiz 

Conclusiones clave de Kurt

El plan de OpenAI de implicar a la policía demuestra lo urgente que se ha vuelto la cuestión. La IA tiene el poder de conectar, pero también conlleva riesgos cuando los adolescentes la utilizan en momentos de desesperación. Padres, expertos y empresas deben trabajar juntos para crear salvaguardias que salven vidas sin sacrificar la confianza.

¿Te parecería bien que las empresas de IA alertaran a la policía si tu hijo adolescente compartiera pensamientos suicidas en Internet? Háznoslo saber escribiéndonos a CyberGuy.com/Contacto

Suscríbete a mi Informe CyberGuy GRATUITO
Recibe mis mejores consejos tecnológicos, alertas de seguridad urgentes y ofertas exclusivas directamente en tu bandeja de entrada. Además, obtendrás acceso instantáneo a mi Guía Definitiva de Supervivencia a las Estafas - gratis al unirte a mi CyberGuy.com/Boletín

HAZ CLIC AQUÍ PARA DESCARGAR LA APP DE FOX NEWS

Copyright 2025 CyberGuy.com. Todos los derechos reservados.