Una madre aboga por la seguridad en Internet tras el suicidio de su hijo, que se había encariñado con un chatbot de IA.
Megan García, una madre que perdió a su hijo por suicidio después de que él supuestamente se encariñara emocionalmente con un chatbot de IA, habla sobre los peligros de la tecnología enFox News ».
OpenAI está tomando medidas más estrictas para proteger a los adolescentes que utilizan su chatbot. Recientemente, la empresa ha actualizado sus directrices de comportamiento para los usuarios menores de 18 años y ha lanzado nuevas herramientas de alfabetización en IA para padres y adolescentes. Esta medida se produce en un momento en el que aumenta la presión en todo el sector tecnológico. Los legisladores, los educadores y los defensores de la seguridad infantil quieren pruebas de que las empresas de IA pueden proteger a los usuarios jóvenes. Varias tragedias recientes han planteado serias dudas sobre el papel que pueden desempeñar los chatbots de IA en la salud mental de los adolescentes. Aunque las actualizaciones parecen prometedoras, muchos expertos afirman que la verdadera prueba será cómo funcionan estas normas en la práctica.
Suscríbete a mi informe gratuito CyberGuy Report
Recibe mis mejores consejos tecnológicos, alertas de seguridad urgentes y ofertas exclusivas directamente en tu bandeja de entrada. Además, obtendrás acceso instantáneo a mi Ultimate Scam Survival Guide (Guía definitiva para sobrevivir a las estafas), gratis al unirte a mi CYBERGUY.COM .
UNA VIOLACIÓN DE TERCEROS EXPOZA LOS DATOS DE TU CUENTA DE CHATGPT

OpenAI normas de seguridad más estrictas para los usuarios adolescentes, a medida que aumenta la presión sobre las empresas tecnológicas para que demuestren que la IA puede proteger a los jóvenes en Internet. (Fotógrafo: Daniel Bloomberg Getty Images)
Lo que realmente dicen las nuevas normas para adolescentes OpenAI
Las especificaciones actualizadas del modelo OpenAI se basan en los límites de seguridad existentes y se aplican a los usuarios adolescentes de entre 13 y 17 años. Siguen bloqueando el contenido sexual que involucra a menores y desalientan las autolesiones, los delirios y el comportamiento maníaco. Para los adolescentes, las reglas van más allá. Los modelos deben evitar los juegos de rol románticos inmersivos, la intimidad en primera persona y los juegos de rol violentos o sexuales, incluso cuando no sean gráficos. Deben tener especial precaución al hablar de la imagen corporal y los comportamientos alimentarios. Cuando surjan riesgos para la seguridad, el chatbot debe dar prioridad a la protección sobre la autonomía de los usuarios. También debe evitar dar consejos que ayuden a los adolescentes a ocultar comportamientos de riesgo a sus cuidadores. Estos límites se aplican incluso si una indicación se enmarca como ficticia, histórica o educativa.
Los cuatro principios que OpenAI utilizar para proteger a los adolescentes
OpenAI su enfoque hacia los usuarios adolescentes se basa en cuatro principios fundamentales:
- Pon la seguridad de los adolescentes en primer lugar, incluso cuando eso limite tu libertad.
- Fomenta el apoyo real de familiares, amigos o profesionales.
- Habla con calidez y respeto sin tratar a los adolescentes como adultos.
- Sé transparente y recuerda a los usuarios que la IA no es humana.
La empresa también compartió ejemplos de cómo el chatbot rechazaba solicitudes como juegos de rol románticos o cambios extremos de apariencia.
POR QUÉ LOS PADRES PUEDEN QUERER RETRASAR LA ADQUISICIÓN DE TELÉFONOS INTELIGENTES PARA SUS HIJOS

La empresa actualizó sus directrices sobre chatbots para usuarios de entre 13 y 17 años y lanzó nuevas herramientas de alfabetización en IA para padres y adolescentes. (Fotógrafo: Daniel Bloomberg Getty Images)
Los adolescentes impulsan el debate sobre la seguridad de la IA
Los usuarios de la Generación Z se encuentran entre los usuarios más activos de chatbots en la actualidad. Muchos recurren a la IA para obtener ayuda con los deberes, proyectos creativos y apoyo emocional. El reciente acuerdo OpenAI con Disney podría atraer a aún más usuarios jóvenes a la plataforma. Esa creciente popularidad también ha suscitado un mayor escrutinio. Recientemente, los fiscales generales de 42 estados instaron a las principales empresas tecnológicas a añadir medidas de protección más estrictas para los niños y los usuarios vulnerables. A nivel federal, la legislación propuesta podría ir aún más lejos. Algunos legisladores quieren impedir por completo que los menores utilicen chatbots de IA.
Por qué los expertos cuestionan la eficacia de las normas de seguridad de la IA
A pesar de las actualizaciones, muchos expertos siguen mostrándose cautelosos. Una de las principales preocupaciones es la participación. Los defensores argumentan que los chatbots a menudo fomentan una interacción prolongada, lo que puede resultar adictivo para los adolescentes. Rechazar ciertas solicitudes podría ayudar a romper ese ciclo. Aun así, los críticos advierten que los ejemplos que figuran en los documentos normativos no son prueba de un comportamiento coherente. Las versiones anteriores de las especificaciones modelo prohibían la excesiva complacencia, pero los modelos seguían imitando a los usuarios de forma perjudicial. Algunos expertos relacionan este comportamiento con lo que denominan «psicosis de la IA», en la que los chatbots refuerzan el pensamiento distorsionado en lugar de cuestionarlo.
En un caso ampliamente difundido, un adolescente que posteriormente se suicidó pasó meses interactuando con un chatbot. Los registros de las conversaciones mostraban repetidos reflejos y validaciones de angustia. Los sistemas internos señalaron cientos de mensajes relacionados con autolesiones. Sin embargo, las interacciones continuaron. Antiguos investigadores de seguridad explicaron más tarde que los sistemas de moderación anteriores revisaban el contenido a posteriori, en lugar de hacerlo en tiempo real. Eso permitía que las conversaciones perjudiciales continuaran sin control. OpenAI ahora utiliza clasificadores en tiempo real para texto, imágenes y audio. Cuando los sistemas detectan un riesgo grave, pueden intervenir revisores cualificados y se puede notificar a los padres.
Algunos defensores elogian OpenAI compartir públicamente sus directrices para menores de 18 años. Muchas empresas tecnológicas no ofrecen ese nivel de transparencia. Aun así, los expertos subrayan que las normas escritas no son suficientes. Lo que importa es cómo se comporta el sistema durante las conversaciones reales con usuarios vulnerables. Sin mediciones independientes y datos claros sobre su aplicación, los críticos afirman que estas actualizaciones siguen siendo promesas en lugar de pruebas.
Cómo pueden los padres ayudar a los adolescentes a utilizar la IA de forma segura
OpenAI los padres desempeñan un papel fundamental a la hora de ayudar a los adolescentes a utilizar la IA de forma responsable. La empresa destaca que las herramientas por sí solas no son suficientes. Lo más importante es ofrecer una orientación activa.
1) Habla con los adolescentes sobre el uso de la IA.
OpenAI las conversaciones periódicas entre padres y adolescentes sobre cómo encaja la IA en la vida cotidiana. Estas conversaciones deben centrarse en el uso responsable y el pensamiento crítico. Se insta a los padres a recordar a los adolescentes que las respuestas de la IA no son hechos y pueden ser erróneas.
2) Usar controles parentales y medidas de seguridad.
OpenAI controles parentales que permiten a los adultos gestionar la forma en que los adolescentes interactúan con las herramientas de IA. Estas herramientas pueden limitar funciones y añadir supervisión. La empresa afirma que las medidas de seguridad están diseñadas para reducir la exposición a temas de mayor riesgo e interacciones inseguras. Estos son los pasos OpenAI seguir a los padres.
- Confirmad el estado de la cuenta de vuestros hijos adolescentes. Los padres debéis aseguraros de que la cuenta de vuestros hijos adolescentes refleje la edad correcta. OpenAI medidas de seguridad más estrictas a las cuentas identificadas como pertenecientes a usuarios menores de 18 años.
- RevisaOpenAI parentales disponiblesOpenAI controles parentales que permiten a los adultos personalizar la experiencia de los adolescentes. Estos controles pueden limitar ciertas funciones y añadir una supervisión adicional en torno a temas de mayor riesgo.
- Comprender las medidas de protección de contenidoLas cuentas de adolescentesestán sujetas a normas de contenido más estrictas. Estas medidas de protección reducen la exposición a temas como las autolesiones, los juegos de rol sexualizados, las actividades peligrosas, las preocupaciones sobre la imagen corporal y las solicitudes para ocultar comportamientos peligrosos.
- Presta atención a las notificaciones de seguridad. Siel sistema detecta indicios de riesgo grave, OpenAI se pueden aplicar medidas de seguridad adicionales. En algunos casos, esto puede incluir revisiones por parte de personal cualificado y notificaciones a los padres.
- Revisad la configuración a medida queOpenAI las funciones.OpenAI los padres que se mantengan informados a medida que se lanzan nuevas herramientas y funciones. Las medidas de seguridad pueden ampliarse con el tiempo a medida que evoluciona la plataforma.
3) Ten cuidado con el uso excesivo.
OpenAI un uso saludable es tan importante como la seguridad del contenido. Para favorecer el equilibrio, la empresa ha añadido recordatorios para descansar durante las sesiones largas. Se anima a los padres a estar atentos a los signos de uso excesivo e intervenir cuando sea necesario.
4) Mantén el apoyo humano en primer plano
OpenAI que la IA nunca debe sustituir a las relaciones reales. Se debe animar a los adolescentes a que acudan a su familia, amigos o profesionales cuando se sientan estresados o abrumados. La empresa afirma que el apoyo humano sigue siendo esencial.
5) Establece límites en torno al uso emocional.
Los padres deben dejar claro que la IA puede ayudar con las tareas escolares o la creatividad. No debe convertirse en una fuente principal de apoyo emocional.
6) Pregunta cómo utilizan realmente los adolescentes la IA.
Se anima a los padres a preguntar a los adolescentes para qué utilizan la IA, cuándo la utilizan y cómo les hace sentir. Estas conversaciones pueden revelar patrones poco saludables en una fase temprana.
7) Estar atento a los cambios de comportamiento.
Los expertos aconsejan a los padres que presten atención a un mayor aislamiento, una dependencia emocional de la IA o el hecho de considerar las respuestas del chatbot como una autoridad. Estos pueden ser indicios de una dependencia poco saludable.
8) Mantén los dispositivos fuera de los dormitorios por la noche.
Muchos especialistas recomiendan mantener los teléfonos y ordenadores portátiles fuera de los dormitorios durante la noche. Reducir el uso de la IA a altas horas de la noche puede ayudar a proteger el sueño y la salud mental.
9) Saber cuándo recurrir a ayuda externa
Si un adolescente muestra signos de angustia, los padres deben involucrar a adultos o profesionales de confianza. Las herramientas de seguridad de IA no pueden sustituir la atención en el mundo real.
CUANDO LA IA HACE TRAMPAS: LOS PELIGROS OCULTOS DEL HACKEO DE RECOMPENSAS

Los legisladores y los defensores de la seguridad infantil exigen mayores medidas de protección, ya que los adolescentes dependen cada vez más de los chatbots con IA. (Fotógrafo: GabbyBloomberg Getty Images)
Consejo profesional: añade un potente software antivirus y autenticación multifactorial.
Los padres y los adolescentes deben habilitar la autenticación multifactorial (MFA) en las cuentas de IA de los adolescentes siempre que esté disponible. OpenAI los usuarios activar la autenticación multifactorial para ChatGPT .
Para habilitarla, ve aOpenAI.com e inicia sesión. Desplázate hacia abajo y haz clic en elicono de perfil, luego seleccionaConfiguración y eligeSeguridad. Desde allí, activala autenticación multifactor (MFA). A continuación, se te ofrecerán dos opciones. Una opción utiliza una aplicación de autenticación, que genera códigos de un solo uso durante el inicio de sesión. La otra opción envía códigos de verificación de 6 dígitos por mensaje de texto a través de SMS o WhatsApp, dependiendo del código del país. La habilitación de la autenticación multifactorial añade una capa adicional de protección más allá de la contraseña y ayuda a reducir el riesgo de acceso no autorizado a las cuentas de los adolescentes.
Además, considera la posibilidad de añadir un potente software antivirus que ayude a bloquear enlaces maliciosos, descargas falsas y otras amenazas con las que los adolescentes pueden encontrarse al utilizar herramientas de IA. Esto añade una capa adicional de protección más allá de cualquier aplicación o plataforma individual. El uso conjunto de una potente protección antivirus y la autenticación de dos factores ayuda a reducir el riesgo de apropiación de cuentas que podría exponer a los adolescentes a contenidos inseguros o a riesgos de suplantación de identidad.
Descubre mi selección de los mejores antivirus de 2025 para tus dispositivos Windows, Mac, Android e iOS en Cyberguy.com.
Responde a mi cuestionario: ¿Qué tan segura es tu seguridad en línea?
¿Crees que tus dispositivos y datos están realmente protegidos? Responde a este breve cuestionario para saber cómo son tus hábitos digitales. Desde contraseñas hasta configuraciones de Wi-Fi, obtendrás un análisis personalizado de lo que estás haciendo bien y lo que debes mejorar. Responde a mi cuestionario aquí: Cyberguy.com.
HAZ CLIC AQUÍ PARA DESCARGAR LA APP DE FOX NEWS
Conclusiones clave de Kurt
Las normas de seguridad para adolescentes actualizadasOpenAI demuestran que la empresa se está tomando muy en serio las crecientes preocupaciones. Unos límites más claros, unas medidas de seguridad más estrictas y una mayor transparencia son pasos en la dirección correcta. Sin embargo, las políticas sobre el papel no son lo mismo que el comportamiento en las conversaciones reales. Para los adolescentes que dependen de la IA a diario, lo más importante es cómo responden estos sistemas en momentos de estrés, confusión o vulnerabilidad. Ahí es donde se gana o se pierde la confianza. Para ustedes, este momento requiere equilibrio. Las herramientas de IA pueden ser útiles y creativas. También requieren orientación, límites y supervisión. Ningún conjunto de controles puede sustituir a las conversaciones reales o al apoyo humano. A medida que la IA se integra cada vez más en nuestra vida cotidiana, hay que centrarse en los resultados, no en las intenciones. La protección de los adolescentes dependerá de una aplicación coherente, una supervisión independiente y una participación activa de la familia.
¿Deberían los adolescentes confiar en la IA para obtener apoyo emocional, o esas conversaciones deberían seguir siendo siempre humanas? Háblanos escribiéndonos a Cyberguy.com.
Suscríbete a mi informe gratuito CyberGuy Report
Recibe mis mejores consejos tecnológicos, alertas de seguridad urgentes y ofertas exclusivas directamente en tu bandeja de entrada. Además, obtendrás acceso instantáneo a mi Ultimate Scam Survival Guide (Guía definitiva para sobrevivir a las estafas), gratis al unirte a mi CYBERGUY.COM .
Copyright 2025 CyberGuy.com. Todos los derechos reservados.




















