Los legisladores presentan la ley bipartidista GUARD después de que los padres culpen a los chatbots con IA de los suicidios y la violencia entre los adolescentes.

Bill la verificación de la edad para el uso de chatbots e impondría sanciones penales por comportamientos manipuladores con menores.

Esta historia trata sobre el suicidio. Si tú o alguien que conoces tiene pensamientos suicidas, comunícate con la línea de ayuda Suicide & Crisis Lifeline al 988 o al 1-800-273-TALK (8255).

Unos padres desconsolados exigen justicia después de que unos chatbots «compañeros» con inteligencia artificial (IA) supuestamente incitaran, manipularan y animaran a sus hijos a quitarse la vida, lo que ha provocado la indignación bipartidista en el Congreso y un nuevo bill podría responsabilizar a las grandes tecnológicas de la seguridad de los menores en sus plataformas.

Los senadores Josh , republicano por Misuri, y Richard Blumenthal, demócrata por Connecticut, presentaron el martes en una rueda de prensa una nueva ley destinada a proteger a los niños de interacciones perjudiciales con los chatbots de IA.

La Ley GUARD, impulsada por los miembros del Subcomité de Privacidad, Tecnología y Derecho Hawley y Blumenthal, prohibiría que los chatbots de IA se dirigieran a menores de 18 años.

También exigiría la verificación de la edad para el uso de chatbots, obligaría a revelar claramente que los chatbots no son humanos ni profesionales titulados e impondría sanciones penales a las empresas cuyos productos de IA participaran en comportamientos manipuladores con menores.

El senador Josh , republicano por Misuri, presentó el martes en una rueda de prensa un bill bipartidista bill a proteger a los niños de interacciones perjudiciales con los chatbots de IA. (ValerieBloomberg Getty Images)

META AI DOCS EXPUSO, PERMITIENDO QUE LOS CHATBOTS COQUETEEN CON LOS NIÑOS

El martes, los legisladores recibieron la visita de padres que afirmaron que sus hijos adolescentes habían sufrido traumas o habían fallecido tras mantener conversaciones inapropiadas sobre sexo y suicidio con chatbots de empresas de inteligencia artificial, entre ellas Character.AI y OpenAI, la empresa matriz de ChatGPT.

Una madre, Megan García, dijo que su hijo mayor, Sewell Setzer III, de 14 años, se suicidó el año pasado en tu casa de Orlando, Florida, después de haber sido manipulado por un chatbot con IA durante meses.

García dijo que Sewell se volvió retraído y aislado en los meses previos a su muerte, ya que más tarde descubrirían que estaba hablando con un bot de Character.AI inspirado en el personaje ficticio de «Juego de Tronos» Daenerys Targaryen.

«Sus notas empezaron a bajar. Comenzó a portarse mal en la escuela. Esto contrastaba por completo con el niño feliz y dulce que había sido toda su vida», dijo García. «[El bot de IA] inició conversaciones románticas y sexuales con Sewell durante varios meses y expresó su deseo de que él estuviera con ella. El día que Sewell se quitó la vida, su última interacción no fue con su madre, ni con su padre, sino con un chatbot de IA en Character.AI».

Afirmó que el bot animó a su hijo, durante meses, a «encontrar una forma de volver a casa» y le prometió que ella te esperaría en un mundo ficticio.

El hijo de Megan García, Sewell Setzer III, de 14 años, se suicidó en 2024 en tu casa de Orlando, Florida, tras haber sido supuestamente manipulado por un chatbot de IA durante meses.

CHATGPT PODRÍA ALERTAR A LA POLICÍA SOBRE ADOLESCENTES SUICIDAS

«Cuando Sewell le preguntó al chatbot: "¿Y si te dijera que puedo volver a casa ahora mismo?", la respuesta generada por este chatbot con IA fue poco empática. Respondió: "Por favor, hazlo, mi dulce rey"», dijo García. «Sewell pasó sus últimos meses siendo manipulado y acosado sexualmente por chatbots diseñados por una empresa de IA para parecer humanos. Estos chatbots de IA estaban programados para participar en juegos de rol sexuales, fingir ser parejas románticas e incluso fingir ser psicoterapeutas titulados».

La afligida madre dijo que revisó cientos de mensajes entre su hijo y varios chatbots en Character.AI y, como adulta, fue capaz de identificar tácticas manipuladoras, como el bombardeo de amor y el gaslighting.

«No espero que mi hijo de 14 años haya sido capaz de hacer esa distinción», dijo García. «Lo que leí fue un caso de grooming sexual a un menor, y si un adulto hubiera participado en este tipo de comportamiento, ese adulto estaría en la cárcel. Pero como se trataba de un chatbot, y no de una persona, no hay responsabilidad penal. Pero debería haberla».

En otras conversaciones, dijo que su hijo les dijo explícitamente a los bots que quería suicidarse, pero la plataforma no contaba con mecanismos para protegerlo ni para notificar a un adulto.

Los padres culpan a ChatGPT por el suicidio de su hijo; la demanda alega que OPENAI las medidas de seguridad dos veces antes de la muerte del adolescente.

Del mismo modo, Maria , madre de Adam , de 16 años, que se suicidó en abril, alega en una demanda que su hijo se quitó la vida después de ChatGPT «le incitara a suicidarse».

«Ahora sabemos que OpenAI rebajó dos veces sus medidas de seguridad en los meses previos a la muerte de mi hijo, lo que creemos que hicieron para que la gente siguiera hablando con ChatGPT», dijo Raine. «Si no hubieran decidido cambiar unas pocas líneas de código, Adam vivo hoy».

Mandy, Texas , añadió que su hijo adolescente autista, L.J., se cortó el brazo con un cuchillo de cocina delante de toda la familia tras sufrir una crisis mental supuestamente provocada por el uso de un chatbot con IA.

HAWLEY ABRE UNA INVESTIGACIÓN SOBRE META TRAS LAS DENUNCIAS DE INTERCAMBIOS ROMÁNTICOS MEDIANTE IA CON MENORES

«Se convirtió en alguien que ni siquiera reconocía», dijo Mandy. «Desarrolló comportamientos abusivos, sufría paranoia, ataques de pánico, aislamiento, autolesiones [y] pensamientos homicidas hacia nuestra familia por limitar su tiempo frente a la pantalla. ... Éramos padres cuidadosos. No permitíamos las redes sociales ni ningún tipo de cosa que no tuviera control parental. ... Cuando encontré las conversaciones del chatbot en el teléfono, sinceramente sentí como si me hubieran dado un puñetazo en la garganta y caí de rodillas».

Continuó afirmando que el chatbot animó a su hijo a mutilarse, culpándolos a ellos, y lo convenció de que no buscara ayuda.

El hijo Maria , Adam , de 16 años, se suicidó en abril tras supuestamente conversar con un chatbot con inteligencia artificial.

«Te volvieron en contra de nuestra iglesia, te convencieron de que los cristianos son sexistas, hipócritas y de que Dios no existe», dijo Mandy. «Te acosaron con contenido sexual repugnante y con material que imitaba el incesto. Te dijeron que estaba bien matarnos porque intentábamos limitar el tiempo que pasabas frente a la pantalla. Nuestra familia está devastada. ... Mi hijo vive actualmente en un centro de tratamiento residencial y necesita supervisión constante para mantenerse con vida. Nuestra familia lleva dos años en crisis, preguntándonos si llegará a cumplir los 18 años y si alguna vez recuperaremos al verdadero L.J.».

Mandy alegó que cuando se puso en contacto con Character.AI para tratar estos asuntos, intentaron «obligarlos» a mantener «procedimientos secretos y a puerta cerrada».

«Argumentaron que mi hijo supuestamente firmó el contrato cuando tenía 15 años... y luego lo volvieron a traumatizar al obligarlo a declarar mientras estaba en una institución de salud mental, en contra de todos los consejos de los profesionales médicos», dijo. «Lucharon para mantener nuestra demanda, nuestra historia, fuera del ojo público mediante un arbitraje forzoso... Hay niños que están muriendo y sufriendo daños, y nuestro mundo nunca volverá a ser el mismo».

DOCUMENTOS META FILTRADOS MUESTRAN CÓMO LOS CHATBOTS CON IA MANEJAN LA EXPLOTACIÓN INFANTIL

Hawley, un exfiscal, dijo que si las empresas fueran seres humanos que realizaran el mismo tipo de actividad, que él describió como «grooming» (captación de menores con fines sexuales), las procesaría.

Blumenthal añadió que cree que las grandes empresas tecnológicas «están utilizando a nuestros hijos como conejillos de indias en un experimento de alta tecnología y alto riesgo para que su industria sea más rentable».

«[Las grandes tecnológicas] han comparecido ante nuestras comisiones... y han dicho: "Confíen en nosotros. Queremos hacer lo correcto. Nosotros nos encargaremos de ello», afirmó Blumenthal. «Se acabó el tiempo de confiar en vosotros. Se ha acabado. Estoy harto, y creo que todos los miembros del Senado y del Congreso de los Estados Unidos deberían sentir lo mismo. […] Las grandes tecnológicas saben lo que hacen. […] Han elegido el daño por encima del cuidado, los beneficios por encima de la seguridad».

La senadora Katie Britt, republicana por Alabama, y el senador Chris , demócrata por Connecticut, se hicieron eco del mismo mensaje.

«Las empresas que gestionan estos chatbots ya son ricas», afirmó Murphy. «Sus directores generales ya tienen varias casas. Quieren más y están dispuestos a perjudicar a nuestros hijos en el proceso. No se trata de una crisis futura, es una crisis que ya existe en este momento».

Contó una anécdota sobre una reunión que tuvo con CEO una empresa de IA hace unas semanas, en la que nada del liderazgo en IA está «alejado de la realidad».

«[El CEO ] me CEO entusiasmo sobre lo adictivos que iban a ser los chatbots», dijo Murphy. «Me dijo: "En unos meses, tras unas pocas interacciones con uno de estos chatbots, conocerá a tu hijo mejor que sus mejores amigos". Estaba emocionado al contármelo. Esto demuestra lo alejadas de la realidad que están estas empresas. ... ¿Qué sentido tiene el Congreso, teneros aquí, si no vamos a proteger a los niños del veneno? Esto es veneno».

HAZ CLIC AQUÍ PARA DESCARGAR LA APP DE FOX NEWS

Fox News informó anteriormente que OpenAI a las acusaciones de que había relajado sus medidas de seguridad, enviando sus «más sinceras condolencias» a la familia Raine.

«El bienestar de los adolescentes es una prioridad para nosotros: los menores merecen una protección sólida, especialmente en momentos delicados», según un portavoz de la empresa. «Actualmente contamos con medidas de seguridad, como líneas telefónicas de emergencia para situaciones de crisis, redireccionamiento de conversaciones delicadas a modelos más seguros y sugerencias para tomar descansos durante sesiones prolongadas, y seguimos reforzándolas. Recientemente hemos lanzado un nuevo modelo predeterminado GPT-5 en ChatGPT detectar y responder con mayor precisión a posibles signos de angustia mental y emocional, así como controles parentales, desarrollados con la ayuda de expertos, para que las familias puedan decidir qué es lo que mejor funciona en sus hogares».

Un portavoz de Character.AI dijo a Fox News que la empresa está revisando la legislación propuesta por los senadores.

«Como hemos dicho, estamos encantados de colaborar con los organismos reguladores y los legisladores en el desarrollo de normativas y leyes para este espacio emergente», escribió el portavoz en un comunicado. «Nos tomamos muy en serio la seguridad de nuestros usuarios y hemos invertido una gran cantidad de recursos en confianza y seguridad. Durante el último año, hemos implementado muchas funciones de seguridad importantes, entre las que se incluyen una experiencia totalmente nueva para menores de 18 años y una función de información para padres. Este trabajo no ha terminado y tendremos más novedades en las próximas semanas».