Este sitio web fue traducido automáticamente. Para obtener más información, por favor haz clic aquí.

Los legisladores de la Unión Europea dieron el miércoles su aprobación final a la ley de inteligencia artificial de los 27 países del bloque, con lo que las normas líderes mundiales están en vías de entrar en vigor a finales de este año.

Los legisladores del Parlamento Europeo votaron abrumadoramente a favor de la Ley de Inteligencia Artificial, cinco años después de que se propusiera por primera vez su regulación. Se espera que la Ley de IA sirva de señal mundial para otros gobiernos que se esfuerzan por regular esta tecnología en rápido desarrollo.

"La Ley de la IA ha impulsado el futuro de la IA en una dirección centrada en el ser humano, en una dirección en la que los seres humanos controlan la tecnología y en la que ésta -la tecnología- nos ayuda a impulsar nuevos descubrimientos, el crecimiento económico, el progreso social y a liberar el potencial humano", declaró antes de la votación Dragos Tudorache, legislador rumano que codirigió las negociaciones parlamentarias sobre el proyecto de ley.

En general, las grandes empresas tecnológicas han apoyado la necesidad de regular la IA, al tiempo que han presionado para asegurarse de que cualquier norma les favorezca. El consejero delegado de OpenAI, Sam Altman, causó un pequeño revuelo el año pasado cuando sugirió que el fabricante de ChatGPT podría retirarse de Europa si no podía cumplir la Ley de IA, antes de dar marcha atrás y decir que no había planes de irse.

EUROPA PONE EN MARCHA UNA OFICINA DE LA AI QUE SERVIRÁ DE "PUNTO DE REFERENCIA MUNDIAL" EN MATERIA DE SEGURIDAD, POLÍTICA Y DESARROLLO

He aquí el primer conjunto completo de reglas de IA del mundo:

¿CÓMO FUNCIONA LA LEY AI?

Al igual que muchas normativas de la UE, la Ley de IA pretendía inicialmente actuar como legislación de seguridad de los consumidores, adoptando un "enfoque basado en el riesgo" de los productos o servicios que utilizan inteligencia artificial.

Cuanto más arriesgada es una aplicación de IA, mayor es el escrutinio al que se enfrenta. Se espera que la gran mayoría de los sistemas de IA sean de bajo riesgo, como los sistemas de recomendación de contenidos o los filtros de spam. Las empresas pueden optar por seguir requisitos y códigos de conducta voluntarios.

Los usos de alto riesgo de la IA, como en dispositivos médicos o infraestructuras críticas como las redes de agua o eléctricas, se enfrentan a requisitos más estrictos, como utilizar datos de alta calidad y proporcionar información clara a los usuarios.

Algunos usos de la IA están prohibidos porque se considera que plantean un riesgo inaceptable, como los sistemas de puntuación social que rigen el comportamiento de las personas, algunos tipos de vigilancia policial predictiva y los sistemas de reconocimiento de emociones en escuelas y lugares de trabajo.

Otros usos prohibidos son que la policía escanee rostros en público mediante sistemas de "identificación biométrica" a distancia basados en IA, excepto en delitos graves como el secuestro o el terrorismo.

¿QUÉ PASA CON LA AI GENERATIVA?

Los primeros borradores de la ley se centraban en los sistemas de IA que realizaban tareas muy limitadas, como escanear currículos y solicitudes de empleo. El asombroso auge de los modelos de IA de propósito general, ejemplificado por el ChatGPT de OpenAI, hizo que los responsables políticos de la UE se apresuraran a ponerse al día.

Añadieron disposiciones para los llamados modelos generativos de IA, la tecnología que sustenta los sistemas de chatbot de IA que pueden producir respuestas únicas y aparentemente realistas, imágenes y más.

Los desarrolladores de modelos de IA de propósito general -desde las startups europeas hasta OpenAI y Google- tendrán que proporcionar un resumen detallado de los textos, imágenes, vídeos y otros datos de Internet que se utilicen para entrenar los sistemas, así como cumplir la legislación de la UE sobre derechos de autor.

Las imágenes, vídeo o audio deepfake generados por IA de personas, lugares o acontecimientos existentes deben etiquetarse como manipulados artificialmente.

eu legisladores ai

Los legisladores europeos votaron la Ley de Inteligencia Artificial que liderará la regulación mundial de la tecnología artificial. (AP Photo/Jean-Francois Badias)

Hay un escrutinio adicional para los modelos de IA más grandes y potentes que plantean "riesgos sistémicos", entre los que se incluyen el GPT4 de OpenAI -su sistema más avanzado- y el Gemini de Google.

La UE dice que le preocupa que estos potentes sistemas de IA puedan "causar accidentes graves o ser utilizados indebidamente para ciberataques de gran alcance". También temen que la IA generativa pueda propagar "sesgos perjudiciales" en muchas aplicaciones, afectando a muchas personas.

Las empresas que proporcionen estos sistemas tendrán que evaluar y mitigar los riesgos; informar de cualquier incidente grave, como fallos de funcionamiento que causen la muerte de alguien o daños graves a la salud o a la propiedad; poner en marcha medidas de ciberseguridad; y revelar cuánta energía consumen sus modelos.

¿LAS NORMAS EUROPEAS INFLUYEN EN EL RESTO DEL MUNDO?

Bruselas propuso por primera vez una normativa sobre IA en 2019, asumiendo un papel mundialmente conocido en la intensificación del escrutinio de las industrias emergentes, mientras otros gobiernos se esfuerzan por seguir el ritmo.

En Estados Unidos, el presidente Joe Biden firmó en octubre una orden ejecutiva de gran alcance sobre la IA, que se espera sea respaldada por legislación y acuerdos globales. Mientras tanto, los legisladores de al menos siete estados de EE.UU. están trabajando en su propia legislación sobre IA.

El presidente chino, Xi Jinping, ha propuesto su Iniciativa de Gobernanza Global de la IA para un uso justo y seguro de la IA, y las autoridades han emitido "medidas provisionales" para gestionar la IA generativa, que se aplica a texto, imágenes, audio, vídeo y otros contenidos generados para personas dentro de China.

Otros países, desde Brasil a Japón, así como agrupaciones mundiales como las Naciones Unidas y el Grupo de los Siete países industrializados, se están moviendo para elaborar barreras de protección de la IA.

ASÍ ES COMO EUROPA ESTÁ PRESIONANDO PARA REGULAR LA INTELIGENCIA ARTIFICIAL MIENTRAS EL CHATGPT EMERGE RÁPIDAMENTE

¿QUÉ OCURRE DESPUÉS?

Se espera que la Ley de IA se convierta oficialmente en ley en mayo o junio, tras unos cuantos trámites finales, incluida la bendición de los países miembros de la UE. Las disposiciones empezarán a entrar en vigor por etapas, y los países deberán prohibir los sistemas de IA prohibidos seis meses después de que las normas entren en vigor.

Las normas para los sistemas de IA de uso general, como los chatbots, empezarán a aplicarse un año después de la entrada en vigor de la ley. A mediados de 2026, estará en vigor el conjunto completo de normas, incluidos los requisitos para los sistemas de alto riesgo.

En cuanto a la aplicación, cada país de la UE creará su propio organismo de vigilancia de la IA, donde los ciudadanos podrán presentar una denuncia si creen que han sido víctimas de una infracción de las normas. Mientras tanto, Bruselas creará una Oficina de IA encargada de hacer cumplir la ley y supervisar los sistemas de IA de propósito general.

Las infracciones de la Ley de IA podrían acarrear multas de hasta 35 millones de euros (38 millones de dólares), o el 7% de los ingresos globales de una empresa.

Esta no es la última palabra de Bruselas sobre las normas de IA, dijo el legislador italiano Brando Benifei, colíder del trabajo del Parlamento sobre la ley. Podría haber más legislación relacionada con la IA después de las elecciones de verano, incluso en ámbitos como la IA en el lugar de trabajo que la nueva ley cubre en parte, dijo.