Este sitio web fue traducido automáticamente. Para obtener más información, por favor haz clic aquí.
NUEVO¡Ahorapuedes escuchar los artículos de Fox News !

Los depredadores sexuales están utilizando una nueva y poderosa herramienta para explotar a los niños: los generadores de imágenes de IA. Los usuarios de un único foro de la web oscura compartieron casi 3.000 imágenes generadas por IA de abusos sexuales a menores en sólo un mes, según un informe reciente de la Internet Watch Foundation, con sede en el Reino Unido.

Por desgracia, las leyes actuales sobre abuso sexual infantil están anticuadas. No tienen en cuenta adecuadamente los peligros únicos que plantean la IA y otras tecnologías emergentes. Los legisladores deben actuar con rapidez para establecer protecciones legales.

La CyberTipline nacional -un sistema de denuncia de sospechas de explotación infantil en línea- recibió la asombrosa cifra de 32 millones de denuncias en 2022, frente a 21 millones sólo dos años antes. Esta cifra, ya de por sí preocupante, aumentará con el auge de las plataformas de IA generadoras de imágenes.  

Las plataformas de IA se "entrenan" con material visual existente. Las fuentes utilizadas para crear imágenes de abusos pueden incluir rostros de niños reales extraídos de las redes sociales, o fotografías de explotación en la vida real. Dadas las decenas de millones de imágenes abusivas que hay en Internet, existe una cantidad casi inagotable de material fuente a partir del cual la IA puede generar imágenes aún más dañinas.

HAZ CLIC AQUÍ PARA VER MÁS OPINIONES DE FOX NEWS

Las imágenes más avanzadas generadas por IA son ahora prácticamente indistinguibles de las fotografías no alteradas. Los investigadores han encontrado nuevas imágenes de antiguas víctimas, imágenes de famosos "desenvejecidos" que aparecen como niños en escenarios de abusos, e imágenes "desnudadas" tomadas de fotos, por lo demás benignas, de niños vestidos.

El alcance del problema aumenta cada día. Los programas informáticos de texto a imagen pueden crear fácilmente imágenes de abusos a menores basadas en lo que el agresor quiera ver. Y gran parte de esta tecnología es descargable, por lo que los delincuentes pueden generar imágenes off-line sin temor a ser descubiertos.

Utilizar la IA para crear imágenes de abusos sexuales a menores no es un delito sin víctimas. Detrás de cada imagen de IA, hay niños reales. Los supervivientes de la explotación del pasado son revictimizados cuando se crean nuevas representaciones utilizando su imagen. Y los estudios demuestran que la mayoría de los que poseen o distribuyen material de abuso sexual infantil también cometen abusos con sus propias manos.

EL PRINCIPAL LEGISLADOR DEL GRUPO DE TRABAJO DE LA AI AFIRMA QUE LA NORMATIVA SOBRE PRIVACIDAD DEBE SER UNA PRIORIDAD PARA EL CONGRESO

Los adultos también pueden utilizar plataformas de IA generadoras de texto, como ChatGPT, para atraer mejor a los menores, actualizando una vieja táctica. Los delincuentes llevan mucho tiempo utilizando identidades falsas en Internet para conocer a jóvenes en juegos o redes sociales, ganarse su confianza y manipularlos para que envíen imágenes explícitas, y luego "sextortarlos" a cambio de dinero, más fotos o actos físicos.

Pero ChatGPT hace que sea asombrosamente fácil hacerse pasar por un niño o un adolescente con un lenguaje juvenil. Los delincuentes actuales pueden utilizar plataformas de IA para generar mensajes realistas con el objetivo de manipular a un joven para que participe en una interacción en línea con alguien que creen que tiene su edad. Y lo que es aún más aterrador, muchas herramientas modernas de IA tienen la capacidad de "aprender" rápidamente -y por tanto de enseñar a las personas- qué técnicas de grooming son las más eficaces.

Inteligencia Artificial

La inteligencia artificial (IA) avanza rápidamente, aportándonos beneficios sin precedentes, pero también plantea graves riesgos, como la amenaza química, biológica, radiológica y nuclear (QBRN). (Cyberguy.com)

El presidente Biden firmó recientemente una orden ejecutiva dirigida a gestionar los riesgos de la IA, incluida la protección de la privacidad y los datos personales de los estadounidenses. Pero necesitamos la ayuda de los legisladores para hacer frente al abuso infantil en línea asistido por IA.

Para empezar, tenemos que actualizar la definición legal federal de material de abuso sexual infantil para incluir las representaciones generadas por IA. En el estado actual de la ley, los fiscales deben demostrar el daño a un niño real. Pero este requisito no está a la altura de la tecnología actual. Un equipo de defensa podría alegar que el material de abuso sexual infantil generado por IA no representa a un niño real y, por tanto, no es perjudicial, aunque sepamos que las imágenes generadas por IA suelen proceder de material que victimiza a niños reales.

En segundo lugar, debemos adoptar políticas que exijan a las empresas tecnológicas vigilar e informar continuamente sobre el material explotador. Algunas empresas buscan proactivamente este tipo de imágenes, pero no existe ninguna obligación de que lo hagan. Sólo tres empresas fueron responsables del 98% de todos los CyberTips en 2020 y 2021: Facebook, Google y Snapchat.

Muchas leyes estatales sobre abuso sexual infantil identifican a los "informadores obligatorios", o profesionales como profesores y médicos que están legalmente obligados a denunciar las sospechas de abuso. Pero en una época en la que vivimos gran parte de nuestras vidas en Internet, los empleados de las redes sociales y otras empresas tecnológicas deberían tener responsabilidades similares de denuncia por mandato legal.

Por último, tenemos que replantearnos cómo utilizamos la encriptación de extremo a extremo, en la que sólo el emisor y el receptor pueden acceder al contenido de un mensaje o archivo. Aunque tiene aplicaciones válidas, como la banca o los historiales médicos, la encriptación de extremo a extremo también puede ayudar a la gente a almacenar y compartir imágenes de abusos a menores. Para ilustrar cuántos abusadores podrían pasar desapercibidos, considera que de los 29 millones de avisos que la CyberTipline recibió en 2021, sólo 160 procedían de Apple, que mantiene la encriptación de extremo a extremo para iMessages y iCloud.

HAZ CLIC AQUÍ PARA OBTENER LA APLICACIÓN FOX NEWS

Aunque las fuerzas del orden tengan una orden para acceder a los archivos de un agresor, una empresa tecnológica con encriptación de extremo a extremo puede alegar que no puede acceder a esos archivos y que no puede ayudar. Sin duda, una industria basada en la innovación es capaz de desarrollar soluciones para proteger a nuestros hijos, y hacer de ello una prioridad.

La tecnología de IA y los medios sociales evolucionan cada día. Si los legisladores actúan ahora, podemos evitar que los niños sufran daños a gran escala.

Teresa Huizar es Directora General de Alianza Nacional para la Infanciala mayor red estadounidense de centros de atención a víctimas de abusos infantiles.