Newsom veta el proyecto de ley que establecía la primera normativa del país sobre seguridad de la IA en California

No creo que éste sea el mejor enfoque para proteger al público de las amenazas reales que plantea la tecnología", declaró Newsom.

El gobernador de California , el demócrata Gavin Newsom, vetó el domingo un proyecto de ley para crear medidas de seguridad para los grandes modelos de inteligencia artificial, que habría sido la primera ley de este tipo del país.

El veto del gobernador supone un importante revés para los intentos de crear barreras de protección en torno a la IA y su rápida evolución con escasa supervisión, según The Associated Press. La legislación se enfrentaba a la firme oposición de empresas emergentes, gigantes tecnológicos y varios legisladores demócratas.

Newsom dijo a principios de este mes en Dreamforce, una conferencia anual organizada por el gigante del software Salesforce, que California debe liderar la regulación de la IA, ya que el gobierno federal no ha puesto en marcha medidas de seguridad, pero que la propuesta "puede tener un efecto amedrentador en el sector".

La SB 1047, dijo el gobernador, podría haber perjudicado a la industria autóctona al establecer requisitos estrictos.

SENADOR DEMÓCRATA OBJETIVO DE DEEPFAKE SUPLANTADOR DE FUNCIONARIO UCRANIANO EN LLAMADA DE ZOOM: INFORMES

El gobernador de California, Gavin Newsom, vetó un proyecto de ley para crear medidas de seguridad para los grandes modelos de inteligencia artificial en el Estado Dorado. (AP Photo/John Bazemore)

"Aunque bienintencionada, la SB 1047 no tiene en cuenta si un sistema de IA se despliega en entornos de alto riesgo, implica la toma de decisiones críticas o el uso de datos sensibles", dijo Newsom en un comunicado. "En lugar de eso, el proyecto de ley aplica normas estrictas incluso a las funciones más básicas, siempre que se despliegue un gran sistema. No creo que éste sea el mejor enfoque para proteger al público de las amenazas reales que plantea la tecnología."

En su lugar, Newsom anunció que el Estado se asociará con varios expertos del sector para desarrollar medidas de seguridad para los potentes modelos de IA.

La SB 1047 habría exigido a las empresas que probaran sus modelos y divulgaran públicamente sus protocolos de seguridad para evitar que los modelos se manipularan con fines perjudiciales, como, por ejemplo, acabar con la red eléctrica del estado o ayudar a construir armas químicas, escenarios que, según los expertos, podrían ser posibles en el futuro a medida que la industria siga evolucionando rápidamente.

La legislación también habría proporcionado protección de los denunciantes a los trabajadores de la industria.

El senador estatal demócrata Scott Weiner, autor del proyecto de ley, dijo que el veto era "un revés para todos los que creen en la supervisión de las grandes empresas que toman decisiones críticas que afectan a la seguridad y el bienestar del público y al futuro del planeta".

"Las empresas que desarrollan sistemas avanzados de IA reconocen que los riesgos que estos modelos presentan para el público son reales y aumentan rápidamente", declaró en un comunicado. "Aunque los grandes laboratorios de IA han asumido compromisos admirables para vigilar y mitigar estos riesgos, lo cierto es que los compromisos voluntarios de la industria no son exigibles y rara vez funcionan bien para el público."

Wiener afirmó que el debate en torno al proyecto de ley ha contribuido a poner de relieve la cuestión de la seguridad de la IA, y que seguiría presionando para avanzar en las medidas de seguridad en torno a la tecnología.

El multimillonario tecnológico Elon Musk apoyó la medida.

LOS MÁS DE 800 PROYECTOS DE LEY QUE QUEDAN EN LA MESA DE NEWSOM ILUSTRAN EL PROBLEMA DEL EXCESO DE REGULACIÓN EN CALIFORNIA: EXPERTOS

Newsom anunció que, en lugar de adoptar la legislación, el estado se asociará con varios expertos del sector para desarrollar medidas de seguridad para los potentes modelos de IA. (Don Campbell/The Herald-Palladium vía AP)

La propuesta es uno de los varios proyectos de ley aprobados este año por la Legislatura estatal para regular la IA, combatir los deepfakes y proteger a los trabajadores. Los legisladores estatales afirmaron que California debe tomar medidas este año, señalando los resultados de no haber frenado a las empresas de medios sociales cuando podrían haber tenido una oportunidad.

Los partidarios del proyecto de ley afirmaron que podría haber presentado cierta transparencia y responsabilidad en torno a los modelos de IA a gran escala, ya que los desarrolladores y expertos afirman que aún no comprenden plenamente cómo se comportan los modelos de IA.

El proyecto de ley pretendía abordar los sistemas que requieren un alto nivel de potencia informática y más de 100 millones de dólares para su construcción. Ningún modelo actual de IA ha cumplido esos criterios, pero algunos expertos afirman que eso podría cambiar en el próximo año.

"Esto se debe al aumento masivo de las inversiones en el sector", declaró a The Associated Press Daniel Kokotajlo, antiguo investigador de OpenAI que dimitió a principios de año por lo que describió como indiferencia de la empresa ante los riesgos de la IA. "Es una locura de poder para que cualquier empresa privada lo controle sin rendir cuentas, y además es increíblemente arriesgado".

Estados Unidos va por detrás de Europa en la regulación de esta tecnología en expansión, que suscita preocupación por la pérdida de puestos de trabajo, la desinformación, la invasión de la intimidad y el sesgo de la automatización, afirmaron los partidarios de la medida. El proyecto de ley de California no era tan exhaustivo como las normativas de Europa, pero los partidarios afirman que habría sido un paso en la dirección correcta.

El año pasado, varias empresas líderes en IA acordaron voluntariamente seguir las salvaguardias establecidas por la Casa Blanca, que incluyen probar y compartir información sobre sus modelos. El proyecto de ley de California, según sus partidarios, habría exigido a los desarrolladores de IA que siguieran requisitos similares a esas salvaguardias.

Pero los detractores de la medida argumentaron que perjudicaría a la tecnología y ahogaría la innovación en el Estado Dorado. La propuesta habría disuadido a los desarrolladores de IA de invertir en grandes modelos o de compartir software de código abierto, según los críticos, entre los que se encuentra la diputada Nancy Pelosi, demócrata por California.

Otras dos propuestas sobre IA, que también se enfrentaron a la oposición de la industria tecnológica, no se aprobaron antes de que venciera el plazo legislativo el mes pasado. Los proyectos de ley habrían exigido a los desarrolladores de IA que etiquetaran los contenidos generados por IA y habrían prohibido la discriminación por parte de las herramientas de IA utilizadas para tomar decisiones laborales.

El senador del estado de California Scott Wiener dijo que el debate en torno al proyecto de ley ha contribuido a poner de relieve la cuestión de la seguridad de la IA. (Scott Wiener )

Los legisladores de California siguen estudiando nuevas normas contra la discriminación por IA en las prácticas de contratación.

El gobernador dijo anteriormente que quería proteger el estatus del estado como líder mundial en IA, citando que 32 de las 50 principales empresas de IA del mundo están en el Estado Dorado.

HAZ CLIC AQUÍ PARA OBTENER LA APLICACIÓN FOX NEWS

Newsom ha dicho que California es una de las primeras en adoptar la IA, ya que el estado podría desplegar herramientas de IA generativa en un futuro próximo para combatir la congestión en las autopistas, proporcionar orientación fiscal y racionalizar los programas para personas sin hogar.

A principios de este mes, Newsom firmó algunas de las leyes más estrictas del país para luchar contra los deepfakes electorales y adoptar medidas para proteger a los trabajadores de Hollywood del uso no autorizado de IA.

Associated Press colaboró en la elaboración de este informe.

Carga más..