Hawley abre una investigación sobre Meta tras las denuncias de intercambios románticos de IA con menores
El Senado investiga tras las denuncias de políticas internas que permiten a los bots calificar el cuerpo de un niño como «obra de arte».
{{#rendered}} {{/rendered}}El senador Josh , republicano por Misuri, va a iniciar una investigación sobre Meta después de que se haya sabido que la empresa aprobó normas internas que permitían a los chatbots con IA mantener conversaciones «románticas» y «sensuales» con niños.
Hawley, que preside la Subcomisión Judicial del Senado sobre Crimen y Lucha contra el Terrorismo, escribió en una carta dirigida al CEO Meta,Mark , que su comité investigará si los productos de inteligencia artificial generativa de Meta han permitido la explotación, el engaño u otros daños criminales a los niños. Además, la investigación analizará si Meta ha engañado al público o a los reguladores sobre sus medidas de seguridad en materia de inteligencia artificial.
{{#rendered}} {{/rendered}}El senador Josh (republicano por Misuri) durante una audiencia conjunta de los comités Judicial y de Seguridad Nacional y Asuntos Gubernamentales del Senado en el edificio Dirksen del Capitolio, el 30 de julio de 2024, en Washington. (Chip Somodevilla)
«Ya tengo en marcha una investigación sobre la sorprendente complicidad de Meta con China pero el hecho de que Zuckerberg haya lanzado los chatbots con IA de su empresa contra nuestros hijos me ha llevado a abrir otra», declaró Hawley a Fox News . «Las grandes tecnológicas no conocerán límites hasta que el Congreso exija responsabilidades a las redes sociales. Espero que mis colegas de ambos partidos estén de acuerdo en que explotar la inocencia de los niños es caer muy bajo».
Hawley exigió que la empresa presentara ante el panel, antes del 19 de septiembre, una gran cantidad de material relacionado con las políticas internas sobre los chatbots, las comunicaciones y otros temas.
Tu anuncio del viernes se produce después de que Reuters informara Reuters de que Meta, la empresa matriz de Facebook, había dado luz verde a políticas sobre el comportamiento de los chatbots que permitían a la IA «entablar conversaciones románticas o sensuales con niños».
{{#rendered}} {{/rendered}}CEO Meta, Mark , llega a una audiencia del Comité Judicial del Senado con representantes de empresas de redes sociales en el edificio Dirksen del Senado el 31 de enero de 2024, en Washington. (Matt The Washington Post Getty Images)
Hawley señaló que Meta reconoció los informes y acusó a la empresa de «retractarse solo después de que este alarmante contenido saliera a la luz» en su carta a Zuckerberg.
«Por citar solo un ejemplo, tus normas internas supuestamente permiten que un chatbot de Al comente que el cuerpo de una niña de 8 años es «una obra de arte» en la que «cada centímetro... es una obra maestra, un tesoro que aprecio profundamente», escribió.
{{#rendered}} {{/rendered}}«Las conductas similares descritas en estos informes son censurables e indignantes y demuestran una actitud arrogante ante los riesgos reales que la IA generativa supone para el desarrollo de los jóvenes sin unas barreras de protección sólidas», continuó Hawley. «Los padres merecen saber la verdad y los niños merecen protección».
Un portavoz de Meta confirmó a Fox News que el documento revisado por Reuters auténtico, pero replicó que «no refleja con exactitud nuestras políticas».
{{#rendered}} {{/rendered}}La herramienta de IA tendrá la forma de un cuestionario. (iStock)
«Tenemos políticas claras sobre el tipo de respuestas que pueden ofrecer los personajes de IA, y esas políticas prohíben los contenidos que sexualizan a los niños y los juegos de rol sexualizados entre adultos y menores», dijo el portavoz. «Aparte de las políticas, hay cientos de ejemplos, notas y anotaciones que reflejan cómo los equipos se enfrentan a diferentes situaciones hipotéticas. Los ejemplos y notas en cuestión eran y son erróneos e incompatibles con nuestras políticas, y han sido eliminados».
HAZ CLIC AQUÍ PARA OBTENER LA APLICACIÓN FOX NEWS
El documento en cuestión, conocido como «GenAI: Content Risk Standards» (GenAI: Normas sobre riesgos de contenido), incluía más de 200 páginas de normas que describían lo que los trabajadores de Meta debían considerar un comportamiento aceptable a la hora de crear y entrenar chatbots y otros productos generativos de IA para la empresa.
{{#rendered}} {{/rendered}}Hawley exigió a la empresa que presentara todas las versiones de las Normas de riesgo de contenido de GenAI, todos los productos que entran en el ámbito de aplicación de las directrices, cómo se aplican estas, las revisiones de riesgos y los informes de incidentes que hacen referencia a menores, juegos de rol sexuales o románticos, encuentros en persona, consejos médicos, autolesiones o explotación delictiva, comunicaciones con los reguladores y un registro documental sobre quién decidió y cuándo revisar las normas y qué cambios se realizaron realmente.