Este sitio web fue traducido automáticamente. Para obtener más información, por favor haz clic aquí.
  • El Instituto Nacional de Normas y Tecnología está solicitando aportaciones públicas hasta el 2 de febrero para probar métodos cruciales para la seguridad de los sistemas de IA.
  • Se centra en crear directrices para evaluar la IA, desarrollar normas y proporcionar entornos de prueba, haciendo hincapié en abordar los riesgos.
  • La orden ejecutiva de Biden ordena a los organismos que establezcan normas para las pruebas, que abarquen los riesgos químicos, biológicos, radiológicos, nucleares y de ciberseguridad.

El gobierno de Biden dijo el martes que estaba dando el primer paso hacia la redacción de normas y orientaciones clave para el despliegue seguro de la inteligencia artificial generativa y sobre cómo probar y salvaguardar los sistemas.

El Instituto Nacional de Normas y Tecnología (NIST) del Departamento de Comercio dijo que solicitaba aportaciones públicas antes del 2 de febrero para realizar pruebas clave cruciales para garantizar la seguridad de los sistemas de IA.

La secretaria de Comercio, Gina Raimondo, dijo que el esfuerzo fue impulsado por la orden ejecutiva de octubre del presidente Joe Biden sobre la IA y tenía como objetivo desarrollar "normas industriales en torno a la seguridad, protección y confianza en la IA que permitan a Estados Unidos seguir liderando el mundo en el desarrollo y uso responsables de esta tecnología en rápida evolución".

CÓMO AFECTARÁ LA ORDEN EJECUTIVA DE BIDEN AL FUTURO DE LA AI

La agencia está elaborando directrices para evaluar la IA, facilitar el desarrollo de normas y proporcionar entornos de prueba para evaluar los sistemas de IA. La solicitud busca aportaciones de las empresas de IA y del público sobre la gestión del riesgo de la IA generativa y la reducción de los riesgos de la desinformación generada por la IA.

Inteligencia artificial

La IA generativa, que es capaz de crear textos, fotos y vídeos en respuesta a instrucciones abiertas, ha suscitado preocupación por su posible impacto en el empleo, las elecciones y la autonomía humana. (REUTERS/Dado Ruvic/Illustration/File Photo)

En los últimos meses, la IA generativa -que puede crear texto, fotos y vídeos en respuesta a instrucciones abiertas- ha suscitado entusiasmo, pero también temores de que pueda dejar obsoletos algunos puestos de trabajo, alterar las elecciones y, potencialmente, superar a los seres humanos con efectos catastróficos.

La orden de Biden ordenaba a los organismos que establecieran normas para esas pruebas y abordaran los riesgos químicos, biológicos, radiológicos, nucleares y de ciberseguridad relacionados.

El NIST está trabajando en el establecimiento de directrices para las pruebas, incluyendo dónde sería más beneficioso el llamado "red-teaming" para la evaluación y gestión de los riesgos de la IA y el establecimiento de las mejores prácticas para hacerlo.

UN EXPERTO ADVIERTE DE QUE LA ORDEN AI DE BIDEN TIENE "PRIORIDADES EQUIVOCADAS" A PESAR DE ALGUNAS CRÍTICAS POSITIVAS

El "red-teaming" externo se ha utilizado durante años en ciberseguridad para identificar nuevos riesgos, y el término hace referencia a las simulaciones de la Guerra Fría estadounidense, en las que al enemigo se le denominaba "equipo rojo".

En agosto, durante una importante conferencia sobre ciberseguridad, se celebró el primer evento de "red-teaming" de evaluación pública en EE.UU., organizado por AI Village, SeedAI y Humane Intelligence.

Miles de participantes intentaron ver si "podían hacer que los sistemas produjeran resultados indeseables o fallaran de alguna otra forma, con el objetivo de comprender mejor los riesgos que presentan estos sistemas", dijo la Casa Blanca.

El acto "demostró cómo el red-teaming externo puede ser una herramienta eficaz para identificar nuevos riesgos de IA", añadió.