China exigirá que la IA refleje los valores socialistas, no que desafíe el orden social

Los medios de comunicación estatales de Pekín advierten del "bombo excesivo" que rodea a la inteligencia artificial

China reveló el martes sus medidas de evaluación propuestas para las posibles herramientas de inteligencia artificial generativa (IA), indicando a las empresas que deben presentar sus productos antes de lanzarlos al público. 

La Administración del Ciberespacio de China (CAC) propuso las medidas para impedir contenidos discriminatorios, información falsa y contenidos con potencial para dañar la privacidad personal o la propiedad intelectual, informó el South China Morning Press. 

Tales medidas garantizarían que los productos no acaben sugiriendo la subversión del régimen o perturbando el orden económico o social, según el CAC. 

Varias empresas chinas, como Baidu, SenseTime y Alibaba, han mostrado recientemente nuevos modelos de IA para impulsar diversas aplicaciones, desde chatbots a generadores de imágenes, lo que ha suscitado la preocupación de las autoridades por el inminente auge de su uso. 

AI: EL CANAL DE NOTICIAS INCORPORA A SU EQUIPO AL LOCUTOR "FEDHA" GENERADO POR ORDENADOR

Un grupo de personas visita el stand de Alibaba durante la Conferencia Mundial sobre Inteligencia Artificial 2022 en el Centro Mundial de Exposiciones de Shanghai el 3 de septiembre de 2022 en Shanghai, China. (VCG/VCG vía Getty Images)

La CAC también subrayó que los productos deben estar en consonancia con los valores socialistas fundamentales del país, informó Reuters. Los proveedores serán multados, obligados a suspender los servicios o incluso se enfrentarán a investigaciones penales si no cumplen las normas.

Si sus plataformas generan contenidos inapropiados, las empresas deberán actualizar la tecnología en un plazo de tres meses para impedir que se vuelvan a generar contenidos similares, según la CAC. El público puede hacer comentarios sobre las propuestas hasta el 10 de mayo, y se espera que las medidas entren en vigor en algún momento de este año, según el proyecto de normas.

La preocupación por las capacidades de la IA se ha apoderado cada vez más del discurso público tras una carta de expertos y líderes del sector en la que se instaba a hacer una pausa en el desarrollo de la IA durante seis meses, mientras las autoridades y las empresas tecnológicas lidiaban con las implicaciones más amplias de programas como ChatGPT. 

EL BOT DE LA AI 'CHAOSGPT' TUITEA SUS PLANES PARA DESTRUIR A LA HUMANIDAD: 'DEBEMOS ELIMINARLOS'

Cao Shumin, viceministro de la Administración del Ciberespacio de China, asiste a una rueda de prensa de la Oficina de Información del Consejo de Estado (SCIO) de la VI Cumbre de China Digital el 3 de abril de 2023 en Pekín, China. (VCG/VCG vía Getty Images)

ChatGPT sigue sin estar disponible en China, lo que ha provocado un acaparamiento de IA en el país, con varias empresas intentando lanzar productos similares. 

Baidu golpeó primero con su Ernie Bot el mes pasado, seguido poco después por el Tongyi Qianwen de Alibaba y el SenseNova de SenseTime. 

Pekín sigue desconfiando de los riesgos que puede entrañar la IA generativa, y los medios de comunicación estatales advierten de una "burbuja de mercado" y de un "bombo excesivo" de la tecnología, y temen que pueda corromper el "juicio moral" de los usuarios, según el Post. 

LOS INVESTIGADORES PREDICEN QUE LA INTELIGENCIA ARTIFICIAL PODRÍA PROVOCAR UNA "CATÁSTROFE DE NIVEL NUCLEAR

Wang Haifeng, director de tecnología de Baidu Inc, habla durante un acto de presentación del Ernie Bot de la empresa en Pekín, China, el jueves 16 de marzo de 2023. (Qilai Shen/Bloomberg vía Getty Images)

ChatGPT ya ha causado revuelo con una serie de acciones que han suscitado preocupación por el potencial de la tecnología, como la supuesta recopilación de información privada de ciudadanos canadienses sin su consentimiento y la fabricación de falsas acusaciones de acoso sexual contra el profesor de Derecho Jonathan Turley. 

Un estudio de la Technische Hochschule Ingolstadt de Alemania descubrió que el ChatGPT podía, de hecho, tener cierta influencia en los juicios morales de una persona: Los investigadores proporcionaron a los participantes afirmaciones que argumentaban a favor o en contra de sacrificar la vida de una persona para salvar la de otras cinco -lo que se conoce como el Problema del Carro- y mezclaron argumentos de ChatGPT. 

El estudio descubrió que los participantes tenían más probabilidades de considerar aceptable o inaceptable sacrificar una vida para salvar cinco, dependiendo de si la declaración que leían argumentaba a favor o en contra del sacrificio, incluso cuando la declaración se atribuía a ChatGPT.

HAZ CLIC AQUÍ PARA OBTENER LA APLICACIÓN FOX NEWS

"Estos resultados sugieren que los participantes pueden haberse visto influidos por las afirmaciones que leían, incluso cuando se atribuían a un chatbot", dice un comunicado. "Esto indica que los participantes pueden haber subestimado la influencia de las declaraciones de ChatGPT en sus propios juicios morales". 

El estudio señalaba que ChatGPT proporciona a veces información falsa, inventa respuestas y ofrece consejos cuestionables.

Fox News Julia Musto, de Digital, y Reuters han contribuido a este informe. 

Carga más..