Los expertos advierten de que la IA podría generar "grandes epidemias o incluso pandemias", pero ¿cuándo?

Los investigadores instan al gobierno de EE.UU. a aprobar normas que impidan que los modelos avanzados de IA "contribuyan a peligros a gran escala

Los expertos que investigan los avances de la inteligencia artificial advierten ahora de que los modelos de IA podrían crear los próximos "patógenos mejorados capaces de causar grandes epidemias o incluso pandemias". 

La declaración se hizo en un artículo publicado en la revista Science por coautores de la Universidad Johns Hopkins, la Universidad de Stanford y la Universidad Fordham, que afirman que los modelos de IA están siendo "entrenados o [son] capaces de manipular significativamente cantidades sustanciales de datos biológicos, desde acelerar el diseño de fármacos y vacunas hasta mejorar el rendimiento de los cultivos". 

"Pero como ocurre con cualquier tecnología nueva y potente, estos modelos biológicos también plantearán riesgos considerables. Debido a su naturaleza de uso general, el mismo modelo biológico capaz de diseñar un vector vírico benigno para administrar terapia génica podría utilizarse para diseñar un virus más patógeno capaz de evadir la inmunidad inducida por la vacuna", escribieron los investigadores en su resumen. 

"Los compromisos voluntarios entre los desarrolladores para evaluar las capacidades potencialmente peligrosas de los modelos biológicos son significativos e importantes, pero no pueden sostenerse por sí solos", continúa el documento. "Proponemos que los gobiernos nacionales, incluido el de Estados Unidos, aprueben leyes y establezcan normas obligatorias que impidan que los modelos biológicos avanzados contribuyan sustancialmente a peligros a gran escala, como la creación de patógenos nuevos o mejorados capaces de causar grandes epidemias o incluso pandemias." 

EL EJÉRCITO IMPULSA NUEVAS ESTRATEGIAS PARA PROTEGER A LAS TROPAS EN EL MARCO DEL PLAN DE APLICACIÓN DE LA AI 

Personas hacen cola para someterse a pruebas de coronavirus en Washington, D.C., en diciembre de 2021. Un nuevo artículo publicado en Science advierte sobre los riesgos potenciales de los modelos biológicos de IA. (Ting Shen/Xinhua vía Getty Images)

Aunque es probable que los modelos actuales de IA no "contribuyan sustancialmente" a los riesgos biológicos, los "ingredientes esenciales para crear modelos biológicos avanzados altamente preocupantes pueden existir ya o pronto existirán", según Time citando a los autores del artículo. 

Al parecer, recomiendan que los gobiernos creen una "batería de pruebas" que los modelos biológicos de IA deban superar antes de ser divulgados al público, y a partir de ahí los funcionarios puedan determinar hasta qué punto debe restringirse el acceso a los modelos. 

"Tenemos que planificar ahora", dijo según Time Anita Cicero, subdirectora del Centro Johns Hopkins para la Seguridad Sanitaria y una de las coautoras del documento . "Será necesaria cierta supervisión y requisitos gubernamentales estructurados para reducir los riesgos de herramientas especialmente potentes en el futuro". 

Cicero habría añadido que los riesgos biológicos de los modelos de IA podrían ser una realidad "dentro de los próximos 20 años, y tal vez incluso mucho menos" sin la supervisión adecuada. 

ELON MUSK APOYA EL PROYECTO DE LEY CALIFORNIANO DE REGULACIÓN DE LA AI: "DECISIÓN DIFÍCIL 

Los autores del artículo escriben que "el mismo modelo biológico capaz de diseñar un vector vírico benigno para administrar terapia génica podría utilizarse para diseñar un virus más patógeno capaz de evadir la inmunidad inducida por la vacuna." (iStock)

"Si la pregunta es si la IA puede utilizarse para diseñar pandemias, al 100%. Y en cuanto a hasta qué punto debería preocuparnos, creo que la IA está avanzando a un ritmo para el que la mayoría de la gente no está preparada", declaró a Fox News Digital Paul Powers, experto en IA y director general de Physna, una empresa que ayuda a los ordenadores a analizar modelos 3D y objetos geométricos. 

"La cuestión es que no son sólo los gobiernos y las grandes empresas los que tienen acceso a estas capacidades cada vez más potentes, sino también los particulares y las pequeñas empresas", prosiguió, pero señaló que "el problema de la regulación aquí es que, en primer lugar, por mucho que todo el mundo quiera un conjunto global de normas para esto, la realidad es que se aplica a nivel nacional. En segundo lugar, la regulación no avanza a la velocidad de la IA. La regulación ni siquiera puede seguir el ritmo de la tecnología como hasta ahora, con la velocidad tradicional". 

"Lo que proponen es que el gobierno apruebe determinados modelos de entrenamiento de IA y determinadas aplicaciones de IA. Pero la realidad es: ¿cómo se controla eso? dijo Powers. 

Un niño recibe la vacuna COVID-19 de Pfizer-BioNTech en Bloomfield Hills, Michigan, el 13 de mayo de 2021. (Jeff Kowalsky/AFP vía Getty Images)

HAZ CLIC AQUÍ PARA OBTENER LA APLICACIÓN FOX NEWS 

"Hay ciertos ácidos nucleicos que son esencialmente los bloques de construcción de cualquier posible patógeno o virus real", añadió Powers, diciendo: "Yo empezaría por ahí... Empezaría por intentar realmente tomar medidas enérgicas sobre quién puede acceder primero a los bloques de construcción". 

Carga más..