La IA en el mundo: Cómo planean regular las empresas de software de IA EE.UU., la UE y China

Mientras que países de todo el mundo han desarrollado diferentes normativas sobre IA, EE.UU. ha adoptado un enfoque de laissez-faire

Con los grandes modelos lingüísticos de IA como ChatGPT que se están desarrollando en todo el mundo, los países se han apresurado a regular la IA. Algunos han redactado leyes estrictas sobre la tecnología, mientras que otros carecen de supervisión reguladora. 

China y la UE han recibido especial atención, ya que han creado normativas detalladas, aunque divergentes, sobre la IA. En ambos, el gobierno desempeña un papel importante. Esto difiere mucho de países como Estados Unidos, donde no existe legislación federal sobre IA. La regulación gubernamental llega cuando muchos países han expresado su preocupación por diversos aspectos de la IA. Entre ellos se incluyen, principalmente, la preocupación por la privacidad y la posibilidad de que el controvertido software perjudique a la sociedad.

A continuación se describe cómo los países de todo el mundo han gestionado la regulación del creciente uso de programas de IA. 

INTELIGENCIA ARTIFICIAL: PREGUNTAS FRECUENTES SOBRE LA AI

Países de todo el mundo han publicado diferentes normativas relativas a la IA, a medida que la revolucionaria tecnología gana protagonismo mundial. (Jakub Porzycki/NurPhoto vía Getty Images)

  1. Normativa estadounidense
  2. Normativa china
  3. ¿Qué otros países han aprobado legislación al respecto?

1. Normativa estadounidense

Estados Unidos aún no ha aprobado una legislación federal sobre IA. OpenAI, una empresa estadounidense, ha creado el software de IA del que más se ha hablado hasta la fecha, ChatGPT. ChatGPT ha influido mucho en la conversación sobre la IA. Países de todo el mundo están generando ahora su propio software de IA, con funciones similares a ChatGPT.

A pesar de la falta de legislación federal, la Administración Biden, junto con el Instituto Nacional de Normas y Tecnología (NIST), publicó la Declaración de Derechos de la IA. El documento ofrece esencialmente orientaciones sobre cómo debe utilizarse la IA y algunas formas en que puede utilizarse mal. Sin embargo, el marco no es jurídicamente vinculante.

TEST DE INTELIGENCIA ARTIFICIAL ¿CONOCES BIEN LA INTELIGENCIA ARTIFICIAL?

Sin embargo, varios estados del país han introducido sus propios conjuntos de leyes sobre IA. Vermont, Colorado e Illinois empezaron creando grupos de trabajo para estudiar la IA, según la Conferencia Nacional de Legislaturas Estatales (NCSL). El Distrito de Columbia, Washington, Vermont, Rhode Island, Pensilvania, Nueva York, Nueva Jersey, Michigan, Massachusetts, Illinois, Colorado y California también están estudiando leyes sobre IA. Aunque muchas de las leyes siguen debatiéndose, Colorado, Illinois, Vermont y Washington han aprobado diversas formas de legislación.

Por ejemplo, la División de Seguros de Colorado exige a las empresas que den cuenta de cómo utilizan la IA en sus modelos y algoritmos. En Illinois, la legislatura aprobó la Ley de Entrevistas en Vídeo con Inteligencia Artificial, que exige el consentimiento de los empleados si se utiliza tecnología de IA para evaluar las candidaturas de los solicitantes de empleo. El estado de Washington exige a su director de información que establezca un marco regulador para cualquier sistema en el que la IA pueda afectar a los organismos públicos.

¿CUÁLES SON LOS PELIGROS DE LA INTELIGENCIA ARTIFICIAL? AVERIGUA POR QUÉ LA GENTE TEME A LA INTELIGENCIA ARTIFICIAL

Estados Unidos no tiene ninguna normativa federal sobre IA en este momento. (Yasin Ozturk/Anadolu Agency vía Getty Images)

Aunque la regulación de la IA en Estados Unidos es un tema candente y una conversación en constante crecimiento, aún está por ver cuándo puede empezar el Congreso a ejercer su discrecionalidad reguladora sobre la IA.

2. El enfoque regulador chino

China es un país en el que el gobierno desempeña un papel importante en la regulación de la IA. Hay muchas empresas tecnológicas con sede en China que han lanzado recientemente software de IA, como chatbots y generadores de imágenes. Por ejemplo, Baidu, SenseTime y Alibaba han lanzado varios programas de inteligencia artificial. Alibaba ha sacado un gran modelo lingüístico llamado Tongyi Qianwen y SenseTime tiene un montón de servicios de IA como SenseChat, que funciona de forma similar a ChatGPT, un servicio no disponible en el país. Ernie Bot es otro chatbot lanzado en China por Baidu. 

La Administración del Ciberespacio de China (CAC) publicó en abril de 2023 una normativa que incluye una lista de normas que deben seguir las empresas de IA y las sanciones a las que se enfrentarán si no las cumplen. 

Una de las normas publicadas por la CAC es que deben realizarse revisiones de seguridad antes de que un modelo de IA se haga público, según el Wall Street Journal. Normas como ésta proporcionan al gobierno una supervisión considerable de la IA. 

¿CUÁLES SON LOS CUATRO TIPOS PRINCIPALES DE INTELIGENCIA ARTIFICIAL? DESCUBRE CÓMO LOS FUTUROS PROGRAMAS DE AI PUEDEN CAMBIAR EL MUNDO

La empresa china Baidu ha lanzado su propio chatbot de IA llamado Ernie Bot. (Pavlo Gonchar/SOPA Images/LightRocket vía Getty Images)

La CAC declaró que, aunque apoya la innovación de la IA segura, ésta debe estar en consonancia con los valores socialistas de China, según Reuters. 

Otra normativa específica detallada por la CAC es que los proveedores son los responsables de la exactitud de los datos que se utilizan para entrenar su software de IA. También deben existir medidas que impidan cualquier discriminación al crear la IA, según la fuente. Además, los servicios de IA deben exigir a los usuarios que presenten su identidad real cuando utilicen el software. 

También existen sanciones, como multas, suspensión de servicios y cargos penales por infracciones, según Reuters. Además, si se publica contenido inapropiado a través de cualquier software de IA, la empresa dispone de tres meses para actualizar la tecnología a fin de garantizar que no vuelva a ocurrir, según la fuente. 

Las normas creadas por la CAC responsabilizan a las empresas de IA de la información que genera su software. 

¿CUÁL ES LA HISTORIA DE LA AI?

ChatGPT de OpenAI no está disponible en China. ( Avishek Das/SOPA Images/LightRocket vía Getty Images)

3. ¿Qué otros países han aprobado legislación? 

Las normas establecidas por la Unión Europea (UE). incluyen la Ley de Inteligencia Artificial (AIA), que debutó en abril de 2021. Sin embargo, la ley aún está siendo revisada en el Parlamento Europeo, según el Foro Económico Mundial. 

El marco regulador de la UE divide las aplicaciones de IA en cuatro categorías: riesgo mínimo, riesgo limitado, riesgo elevado y riesgo inaceptable. Las aplicaciones que se consideran de riesgo mínimo o limitado tienen requisitos normativos leves, pero deben cumplir ciertas obligaciones de transparencia. Por otro lado, las aplicaciones que se clasifican como de riesgo inaceptable están prohibidas. Las aplicaciones que entran en la categoría de alto riesgo pueden utilizarse, pero deben seguir directrices más estrictas y estar sujetas a fuertes requisitos de prueba.

En el contexto de la UE, la Autoridad Italiana de Protección de Datos prohibió temporalmente ChatGPT en marzo. La prohibición se basó en gran medida en cuestiones de privacidad. Tras aplicar la prohibición, la agencia reguladora dio a OpenAI 20 días para abordar problemas específicos, como la verificación de la edad, aclaraciones sobre el uso de datos personales, actualizaciones de la política de privacidad y proporcionar más información a los usuarios sobre cómo utiliza la aplicación los datos personales.

HAZ CLIC AQUÍ PARA OBTENER LA APLICACIÓN FOX NEWS

ChatGPT ha suscitado muchas conversaciones sobre la IA en todo el mundo. (Foto de LIONEL BONAVENTURE/AFP vía Getty Images)

La prohibición de ChatGPT en Italia se anuló a finales de abril, después de que se comprobara que el chatbot cumplía los requisitos normativos.

Otro país que ha emprendido la regulación de la IA es Canadá, con la Ley de Inteligencia Artificial y Datos (AIDA) que se redactó en junio de 2022. La AIDA exige transparencia a las empresas de IA, además de establecer medidas antidiscriminatorias.

Carga más..