Este sitio web fue traducido automáticamente. Para obtener más información, por favor haz clic aquí.

Incluso antes de que empezaran a circular ampliamente imágenes deepfake pornográficas y violentas de Taylor Swift en los últimos días, los legisladores estatales de todo EE.UU. habían estado buscando formas de acabar con este tipo de imágenes no consentidas, tanto de adultos como de niños.

Pero en esta era centrada en Taylor, el problema está recibiendo mucha más atención desde que fue objeto de deepfakes, las imágenes generadas por ordenador que utilizan inteligencia artificial para parecer reales.

Aquí tienes cosas que debes saber sobre lo que han hecho los estados y lo que están considerando.

LOS LEGISLADORES DE LA CÁMARA DE REPRESENTANTES DARÁN A CONOCER CÓMO LA AI PUEDE HACER "MÁS EFICIENTE" EL CONGRESO

DÓNDE APARECEN LOS DEEPFAKES

El año pasado, la inteligencia artificial irrumpió en la corriente dominante como nunca antes lo había hecho, permitiendo a la gente crear deepfakes cada vez más realistas. Ahora aparecen en Internet con más frecuencia y de varias formas.

Está la pornografía, que se aprovecha de famosos como Swift para crear falsas imágenes comprometedoras.

Taylor Swift en un partido de la NFL

Taylor Swift anima en un partido de fútbol americano de la NFL el 28 de enero de 2024, en Baltimore. La estrella del pop ha sido víctima recientemente de imágenes de aspecto realista generadas por IA, o deepfakes, que ponen su rostro en imágenes pornográficas. (AP Photo/Julio Cortez, Archivo)

Hay música - Una canción que sonaba como si Drake y The Weeknd actuaran juntos consiguió millones de clics en los servicios de streaming, pero no se trataba de esos artistas. La canción fue retirada de las plataformas.

Justo antes de las primarias presidenciales de enero, algunos votantes de Nuevo Hampshire informaron de que habían recibido llamadas falsas del presidente Joe Biden diciéndoles que no se molestaran en votar. La oficina del fiscal general del estado está investigando.

Pero una circunstancia más común es la pornografía que utiliza la imagen de personas no famosas, incluidos menores.

QUÉ HAN HECHO LOS ESTADOS HASTA AHORA

Las falsificaciones profundas son sólo un área en el complicado reino de la IA que los legisladores están tratando de averiguar si se debe manejar y cómo.

Al menos 10 estados ya han promulgado leyes relacionadas con el deepfake. Este año se están estudiando decenas de medidas más en las asambleas legislativas de todo el país.

Georgia, Hawai, Texas y Virginia tienen leyes que penalizan la pornografía deepfake no consentida.

California e Illinois han concedido a las víctimas el derecho a demandar a quienes crean imágenes utilizando su imagen.

Minnesota y Nueva York hacen ambas cosas. La ley de Minnesota también se centra en el uso de deepfakes en política.

¿HAY SOLUCIONES TECNOLÓGICAS?

Siwei Lyu, profesor de informática de la Universidad de Buffalo, dijo que se está trabajando en varios enfoques, ninguno de ellos perfecto.

Uno de ellos son los algoritmos de detección de deepfakes, que pueden utilizarse para detectar deepfakes en lugares como las plataformas de las redes sociales.

Otra -que Lyu dijo que está en desarrollo pero que aún no se utiliza ampliamente- es incrustar códigos en los contenidos que la gente sube, que señalarían si se reutilizan en la creación de IA.

Y un tercer mecanismo sería exigir a las empresas que ofrecen herramientas de IA que incluyan marcas de agua digitales para identificar los contenidos generados con sus aplicaciones.

Dijo que tiene sentido responsabilizar a esas empresas del uso que la gente hace de sus herramientas, y que las empresas, a su vez, pueden hacer cumplir los acuerdos de usuario contra la creación de deepfakes problemáticos.

¿QUÉ DEBE CONTENER UNA LEY?

La legislación modelo propuesta por el Consejo de Intercambio Legislativo Estadounidense se dirige al porno, no a la política. El grupo político conservador y proempresarial anima a los estados a hacer dos cosas: Tipificar como delito la posesión y distribución de deepfakes que muestren a menores en actos sexuales, y permitir que las víctimas demanden a quienes distribuyan deepfakes no consentidos que muestren conductas sexuales.

"Yo recomendaría a los legisladores que empezaran con un arreglo pequeño y prescriptivo que pueda resolver un problema tangible", dijo Jake Morabito, que dirige el grupo de trabajo sobre comunicaciones y tecnología de ALEC. Advierte de que los legisladores no deberían centrarse en la tecnología que puede utilizarse para crear deepfakes, ya que eso podría cerrar el paso a la innovación con otros usos importantes.

Todd Helmus, científico del comportamiento de RAND, un thinktank no partidista, señala que dejar la aplicación de la ley en manos de particulares que presentan demandas judiciales es insuficiente. Demandar requiere recursos, dice. Y el resultado puede no merecer la pena. "No merece la pena demandar a alguien que no tiene dinero que darte", dijo.

DEAN PHILLIPS PROMETE SER EL "PRIMER PRESIDENTE DE LA AI" EN UN DISCURSO DE CAMPAÑA SOBRE SU PLATAFORMA DE INTELIGENCIA ARTIFICIAL

Helmus pide barandillas en todo el sistema y dice que hacer que funcionen probablemente requiera la participación del gobierno.

Dijo que OpenAI y otras empresas cuyas plataformas pueden utilizarse para generar contenidos aparentemente realistas deberían esforzarse por impedir que se creen deepfakes; las empresas de medios sociales deberían implantar mejores sistemas para evitar que proliferen, y debería haber consecuencias legales para quienes lo hagan de todos modos.

Jenna Leventoff, abogada de la ACLU especializada en la Primera Enmienda, afirmó que, aunque los deepfakes pueden causar daños, también se les aplican las protecciones de la libertad de expresión, y que los legisladores deben asegurarse de no ir más allá de las excepciones existentes a la libertad de expresión, como la difamación, el fraude y la obscenidad, cuando intenten regular la tecnología emergente.

La semana pasada, la secretaria de prensa de la Casa Blanca, Karine Jean-Pierre, abordó la cuestión, afirmando que las empresas de redes sociales deberían crear y hacer cumplir sus propias normas para impedir la difusión de desinformación e imágenes como las de Swift.

¿QUÉ SE PROPONE?

En enero, un grupo bipartidista de miembros del Congreso presentó una legislación federal que otorgaría a las personas el derecho de propiedad sobre su propia imagen y voz, y la capacidad de demandar a quienes la utilicen de forma engañosa mediante un deepfake por cualquier motivo.

La mayoría de los estados están considerando algún tipo de legislación sobre deepfake en sus sesiones de este año. Las presentan demócratas, republicanos y coaliciones bipartidistas de legisladores.

Entre los proyectos de ley que están cobrando fuerza figura uno que tipificaría como delito la distribución o creación de representaciones sexualmente explícitas de una persona sin su consentimiento en Indiana, dominada por el Partido Republicano. Se aprobó por unanimidad en la Cámara de Representantes en enero.

Una medida similar presentada esta semana en Misuri se llama "Ley Taylor Swift". Y otra ha sido aprobada por el Senado esta semana en Dakota del Sur, donde el fiscal general Marty Jackley dijo que algunas investigaciones se han pasado a funcionarios federales porque el estado no dispone de las leyes relacionadas con la IA necesarias para presentar cargos.

HAZ CLIC AQUÍ PARA OBTENER LA APLICACIÓN FOX NEWS

"Cuando entras en la página de Facebook de alguien, robas a su hijo y lo pones en pornografía, no existe el derecho de la Primera Enmienda a hacer eso", dijo Jackley.

¿QUÉ PUEDE HACER UNA PERSONA?

Para cualquiera que tenga presencia en Internet, puede ser difícil evitar ser víctima de un deepfake.

Pero Helmus, de RAND, afirma que las personas que descubran que han sido objeto de un ataque pueden pedir a la plataforma de las redes sociales donde se comparten las imágenes que las elimine; informar a la policía si se encuentran en un lugar con una ley al respecto; informar a las autoridades escolares o universitarias si el presunto agresor es un estudiante; y buscar ayuda de salud mental en caso necesario.