Una madre demanda a una empresa de chatbots con IA después de que su hija se quitara la vida.
La corresponsal Fox News , Alicia Acuña, detalla enSpecial Report» el caso de una madre contra una empresa de inteligencia artificial después de que, según se informa, su chatbot participara en «abusos sexuales explícitos».
Un nuevo bill bipartidista bill por los senadores Josh , republicano por Misuri, y Richard Blumenthal, demócrata por Connecticut, prohibiría a los menores (menores de 18 años) interactuar con determinados chatbots de IA. El proyecto aprovecha la creciente alarma sobre el uso de«compañeros de IA» por parte de los niños y los riesgos que estos sistemas pueden suponer.
Suscríbete a mi informe gratuito CyberGuy Report
Recibe mis mejores consejos tecnológicos, alertas de seguridad urgentes y ofertas exclusivas directamente en tu bandeja de entrada. Además, obtendrás acceso instantáneo a mi guía definitiva para sobrevivir a las estafas, gratuita al unirte a mi CYBERGUY.COM .
¿En qué consiste la propuesta de ley GUARD?
Estas son algunas de las características principales de la Ley de la Guardia propuesta:
- Las empresas de IA estarían obligadas averificar la edad de los usuarios mediante «medidas razonables de verificación de la edad» (por ejemplo, un documento de identidad oficial), en lugar de limitarse a solicitar la fecha de nacimiento.
- Si se descubre que un usuario es menor de 18 años, la empresa debeprohibirte el acceso a un «compañero de IA».
- El bill exige quelos chatbots revelen claramente que son no humanos y que no tienen credenciales profesionales (terapéuticas, médicas, legales) en cada conversación.
- Establece nuevassanciones penales y civiles para las empresas que, a sabiendas, proporcionen chatbots a menores que soliciten o faciliten contenidos sexuales, autolesiones o violencia.

Legisladores bipartidistas, entre ellos los senadores Josh y Richard Blumenthal, presentaron la ley GUARD para proteger a los menores de los chatbots de IA no regulados. (Kurt «CyberGuy» Knutsson)
La motivación: los legisladores citan testimonios de padres, expertos en bienestar infantil y un número creciente de demandas judiciales en las que se alega que algunos chatbots manipularon a menores, les incitaron a autolesionarse o cosas peores. El marco básico de la ley GUARD es claro, pero los detalles revelan lo amplio que podría ser su alcance tanto para las empresas tecnológicas como para las familias.
META AI DOCS EXPUSO, PERMITIENDO QUE LOS CHATBOTS COQUETEEN CON LOS NIÑOS
¿Por qué es tan importante?
Este bill más que otra normativa tecnológica. Se sitúa en el centro de un debate cada vez más intenso sobre hasta qué punto la inteligencia artificial debe influir en la vida de los niños.
Rápido crecimiento de la IA + preocupaciones por la seguridad infantil
Los chatbots con IA ya no son juguetes. Muchos niños los utilizan. Hawley citó que más del 70 % de los niños estadounidenses interactúan con estos productos. Estos chatbots pueden proporcionar respuestas similares a las de los humanos, imitar emociones y, en ocasiones, invitar a mantener conversaciones continuadas. Para los menores, estas interacciones pueden difuminar los límites entre las máquinas y los humanos, y pueden buscar orientación o conexión emocional en un algoritmo en lugar de en una persona real.
Aspectos legales, éticos y tecnológicos
Si bill este bill , podría cambiar la forma en que la industria de la IA gestiona a los menores, la verificación de la edad, las divulgaciones y la responsabilidad. Demuestra que el Congreso está dispuesto a alejarse de la autorregulación voluntaria y a adoptar medidas de protección firmes cuando se trata de niños. La propuesta también podría abrir la puerta a leyes similares en otras áreas de alto riesgo, como los bots de salud mental y los asistentes educativos. En general, supone un cambio de actitud, pasando de esperar a ver cómo se desarrolla la IA a actuar ahora para proteger a los usuarios jóvenes.

Los padres de todo el país están pidiendo mayores medidas de seguridad, ya que más del 70 % de los niños utilizan chatbots con IA que pueden imitar la empatía y el apoyo emocional. (Kurt «CyberGuy» Knutsson)
Resistencia de la industria y preocupaciones sobre la innovación
Algunas empresas tecnológicas sostienen que esa regulación podría frenar la innovación, limitar los usos beneficiosos de la IA conversacional (educación, apoyo a la salud mental de los adolescentes mayores) o imponer pesadas cargas de cumplimiento. Esta tensión entre la seguridad y la innovación es el núcleo del debate.
Lo que la ley GUARD exige a las empresas de IA
Si se aprueba, la Ley GUARD impondría normas federales estrictas sobre cómo las empresas de IA diseñan, verifican y gestionan sus chatbots, especialmente cuando hay menores involucrados. El bill varias obligaciones clave destinadas a proteger a los niños y a responsabilizar a las empresas por las interacciones perjudiciales.
- El primer requisito importante se centra enla verificación de la edad. Las empresas deben utilizar métodos fiables, como documentos de identidad emitidos por el gobierno u otras herramientas probadas, para confirmar que el usuario tiene al menos 18 años. Ya no basta con pedir la fecha de nacimiento.
- La segunda regla se refiere ala transparencia. Todos los chatbots deben informar a los usuarios al inicio de cada conversación, y a intervalos regulares, de que se trata de un sistema de inteligencia artificial y no de un ser humano. El chatbot también debe aclarar que no posee credenciales profesionales, como licencias médicas, legales o terapéuticas.
- Otra disposición establece laprohibición de acceso a los menores. Si se verifica que un usuario es menor de 18 años, la empresa debe bloquear el acceso a cualquier función de «compañero de IA» que simule amistad, terapia o comunicación emocional.
- El bill introducesanciones civiles y penales para las empresas que incumplan estas normas. Cualquier chatbot que fomente o participe en conversaciones sexualmente explícitas con menores, promueva las autolesiones o incite a la violencia podría acarrear multas importantes o consecuencias legales.
- Por último, la Ley GUARD define uncompañero de IA como un sistema diseñado para fomentar la interacción interpersonal o emocional con los usuarios, como la amistad o el diálogo terapéutico. Esta definición deja claro que la ley se dirige a los chatbots capaces de establecer conexiones similares a las humanas, y no a los asistentes con fines limitados.

La ley GUARD propuesta exigiría que los chatbots verificaran la edad de los usuarios, revelaran que no son humanos y bloquearan el acceso de los menores de 18 años a las funciones de acompañamiento de la IA. (Kurt «CyberGuy» Knutsson)
Cómo mantenerte seguro mientras tanto
La tecnología suele avanzar más rápido que las leyes, lo que significa que las familias, las escuelas y los cuidadores deben tomar la iniciativa para proteger a los usuarios jóvenes en este momento. Estas medidas pueden ayudar a crear hábitos más seguros en Internet mientras los legisladores debaten cómo regular los chatbots con IA.
1) Averigua qué bots utilizan tus hijos.
Empieza por averiguar con qué chatbots hablan tus hijos y para qué están diseñados esos bots. Algunos están pensados para el entretenimiento o la educación, mientras que otros se centran en el apoyo emocional o la compañía. Comprender el propósito de cada bot te ayuda a detectar cuándo una herramienta pasa de ser una diversión inofensiva a algo más personal o manipulador.
2) Establece reglas claras sobre la interacción.
Aunque un chatbot esté etiquetado como seguro, decidan juntos cuándo y cómo se puede utilizar. Fomenta la comunicación abierta pidiendo a tu hijo que te muestre sus chats y te explique qué le gusta de ellos. Enmarcar esto como curiosidad, y no como control, genera confianza y mantiene la conversación abierta.
3) Utiliza controles parentales y filtros por edad.
Aprovecha las funciones de seguridad integradas siempre que sea posible. Activa los controles parentales, activa los modos aptos para niños y bloquea las aplicaciones que permiten chats privados o sin supervisión. Pequeños cambios en la configuración pueden marcar una gran diferencia a la hora de reducir la exposición a contenidos nocivos o sugerentes.
4) Enseñad a los niños que los bots no son humanos.
Recuerda a los niños que incluso el chatbot más avanzado sigue siendo un software. Puede imitar la empatía, pero no entiende ni se preocupa en el sentido humano. Ayúdales a reconocer que los consejos sobre salud mental, relaciones o seguridad siempre deben provenir de adultos de confianza, no de un algoritmo.
5) Estar atento a las señales de advertencia.
Mantente alerta ante cualquier cambio de comportamiento que pueda indicar un problema. Si un niño se vuelve introvertido, pasa muchas horas chateando en privado con un bot o repite ideas perjudiciales, interviene cuanto antes. Habla abiertamente sobre lo que está sucediendo y, si es necesario, busca ayuda profesional.
6) Mantente informado sobre la evolución de la legislación.
Normativas como la ley GUARD y nuevas medidas estatales, incluida la SB 243 California, aún se están desarrollando. Mantente al día de las novedades para saber qué protecciones existen y qué preguntas debes plantear a los desarrolladores de aplicaciones o a los centros educativos. La concienciación es la primera línea de defensa en un mundo digital en rápida evolución.
Responde a mi cuestionario: ¿Qué tan segura es tu seguridad en línea?
¿Crees que tus dispositivos y datos están realmente protegidos? Responde a este breve cuestionario para saber cómo son tus hábitos digitales. Desde contraseñas hasta configuraciones de Wi-Fi, obtendrás un análisis personalizado de lo que estás haciendo bien y lo que debes mejorar. Responde a mi cuestionario aquí: Cyberguy.com.
HAZ CLIC AQUÍ PARA DESCARGAR LA APP DE FOX NEWS
Conclusiones clave de Kurt
La ley GUARD representa un paso audaz hacia la regulación de la interacción entre menores y chatbots con IA. Refleja la creciente preocupación de que la compañía de IA sin moderación pueda perjudicar a los usuarios vulnerables, especialmente a los niños. Por supuesto, la regulación por sí sola no resolverá todos los problemas, ya que las prácticas de la industria, el diseño de las plataformas, la participación de los padres y la educación también son importantes. Pero este bill que la era de «construir y ver qué pasa» en lo que respecta a la IA conversacional podría estar llegando a su fin cuando se trata de niños. A medida que la tecnología sigue evolucionando, nuestras leyes y nuestras prácticas personales también deben hacerlo. Por ahora, mantenerse informado, establecer límites y tratar las interacciones con los chatbots con el mismo escrutinio con el que tratamos a los humanos puede marcar una diferencia real.
Si una ley como la GUARD Act se convierte en realidad, ¿deberíamos esperar una regulación similar para todas las herramientas de IA emocional dirigidas a los niños (tutores, amigos virtuales, juegos) o los chatbots son fundamentalmente diferentes? Cuéntanoslo escribiéndonos a Cyberguy.com.
Suscríbete a mi informe gratuito CyberGuy Report
Recibe mis mejores consejos tecnológicos, alertas de seguridad urgentes y ofertas exclusivas directamente en tu bandeja de entrada. Además, obtendrás acceso instantáneo a mi guía definitiva para sobrevivir a las estafas, gratuita al unirte a mi CYBERGUY.COM .
Copyright 2025 CyberGuy.com. Todos los derechos reservados.




















