Se forma un equipo de IA apocalíptica para defenderse de catastróficos escenarios de catástrofe nuclear y bioquímica
OpenAI adopta un enfoque proactivo para salvaguardar el futuro de la inteligencia artificial
{{#rendered}} {{/rendered}}
La inteligencia artificial (IA) avanza rápidamente, aportándonos beneficios sin precedentes, pero también plantea graves riesgos, como las amenazas químicas, biológicas, radiológicas y nucleares (QBRN), que podrían tener consecuencias catastróficas para el mundo.
¿Cómo podemos garantizar que la IA se utilice para el bien y no para el mal? ¿Cómo podemos prepararnos para los peores escenarios que podrían surgir de la IA?
{{#rendered}} {{/rendered}}
Cómo se prepara OpenAI para lo peor
Éstas son algunas de las preguntas a las que OpenAI, un destacado laboratorio de investigación sobre IA y la empresa que está detrás de ChatGPT, intenta dar respuesta con su nuevo equipo de Preparación. Su misión es rastrear, evaluar, prever y proteger contra los riesgos fronterizos de los modelos de IA.
MÁS: META CONFIESA QUE UTILIZA LO QUE PUBLICAS PARA ENTRENAR A SU AI
{{#rendered}} {{/rendered}}
¿Qué son los riesgos fronterizos?
Los riesgos fronterizos son los peligros potenciales que podrían surgir de modelos de IA que superen las capacidades de los actuales sistemas de vanguardia. Estos modelos, que OpenAI denomina "modelos de IA de frontera", podrían tener la capacidad de generar código malicioso, manipular el comportamiento humano, crear información falsa o engañosa, o incluso desencadenar sucesos QBRN.
Los peligros de los deepfakes
{{#rendered}} {{/rendered}}
Por ejemplo, imagina un modelo de IA que pueda sintetizar voces y vídeos realistas de cualquier persona, como un líder mundial o un famoso. Un modelo así podría utilizarse para crear deepfakes, que son vídeos o clips de audio falsos que parecen y suenan reales. Los deepfakes podrían utilizarse para diversos fines maliciosos, como difundir propaganda, chantajear, suplantar la identidad o incitar a la violencia.
¿ESTÁS PROTEGIDO CONTRA LAS AMENAZAS? REVISA AQUÍ LA MEJOR PROTECCIÓN ANTIVIRUS
Anticipar y prevenir escenarios catastróficos de IA
{{#rendered}} {{/rendered}}
Otro ejemplo es un modelo de IA que pueda diseñar moléculas u organismos novedosos, como fármacos o virus. Un modelo así podría utilizarse para crear nuevos tratamientos contra enfermedades o mejorar las capacidades humanas. Sin embargo, también podría utilizarse para crear armas biológicas o liberar patógenos nocivos en el medio ambiente.
Éstos son sólo algunos de los posibles escenarios que los modelos de IA de vanguardia podrían permitir o provocar. El equipo de Preparación pretende anticipar y prevenir estos escenarios catastróficos antes de que sucedan o mitigar su impacto si suceden.
{{#rendered}} {{/rendered}}
¿Cómo trabajará el equipo de Preparación?
El equipo de Preparación trabajará en estrecha colaboración con otros equipos de OpenAI, como el equipo de Seguridad y el equipo de Política, para garantizar que los modelos de IA se desarrollan y despliegan de forma segura y responsable.
{{#rendered}} {{/rendered}}
Gestionar los riesgos de la IA de vanguardia
El equipo también colaborará con socios externos, como investigadores, responsables políticos, reguladores y grupos de la sociedad civil, para compartir ideas y buenas prácticas sobre la gestión del riesgo de la IA. El equipo llevará a cabo diversas actividades para alcanzar sus objetivos, como:
Desarrollar una política de desarrollo informada sobre los riesgos: Esta política describirá cómo gestionará OpenAI los riesgos que plantean los modelos de IA de vanguardia a lo largo de su ciclo de vida, desde el diseño hasta la implantación. La política incluirá acciones de protección, como pruebas, auditorías, supervisión y redistribución de los modelos de IA, y mecanismos de gobernanza, como comités de supervisión, principios éticos y medidas de transparencia.
{{#rendered}} {{/rendered}}
Realización de estudios de riesgos: El equipo llevará a cabo investigaciones y análisis sobre los riesgos potenciales de los modelos de IA de vanguardia utilizando métodos teóricos y empíricos. El equipo también solicitará ideas a la comunidad para estudios de riesgos, ofreciendo un premio de premio de 25.000 dólares y una oportunidad de trabajo para las 10 mejores propuestas.
¿QUÉ ES LA INTELIGENCIA ARTIFICIAL?
Desarrollar herramientas de mitigación de riesgos: El equipo desarrollará herramientas y técnicas para reducir o eliminar los riesgos de los modelos de IA de vanguardia. Estas herramientas podrían incluir métodos para detectar y prevenir el uso malicioso de los modelos de IA, métodos para verificar y validar el comportamiento y el rendimiento de los modelos de IA y métodos para controlar e intervenir en las acciones de los modelos de IA.
{{#rendered}} {{/rendered}}
MÁS: PREVENCIÓN DE TIROTEOS MASIVOS CON DETECCIÓN DE AI: INVENTO INSPIRADO EN LOS NAVY SEALS
¿Por qué es importante?
La formación del equipo de Preparación es un paso importante para OpenAI y la comunidad de IA en general. Demuestra que OpenAI se toma en serio los riesgos potenciales de su propia investigación e innovación y se compromete a garantizar que su trabajo se alinea con su visión de crear una "inteligencia artificial beneficiosa para todos."
{{#rendered}} {{/rendered}}
También sirve de ejemplo para que otros laboratorios y organizaciones de IA sigan su ejemplo y adopten un enfoque proactivo y preventivo de la gestión de riesgos de la IA. Al hacerlo, pueden contribuir a fomentar la confianza en la IA entre el público y las partes interesadas y evitar posibles daños o conflictos que podrían socavar el impacto positivo de la IA.
El equipo de Preparación y sus aliados
El equipo de Preparación no está solo en este empeño. Hay muchas otras iniciativas y grupos que trabajan en cuestiones similares, como la Asociación sobre IA, el Centro de IA Humanamente Compatible, el Instituto del Futuro de la Vida y el Instituto Global de Riesgos Catastróficos. Estas iniciativas y grupos pueden beneficiarse de colaborar entre sí y compartir sus conocimientos y recursos.
{{#rendered}} {{/rendered}}
Conclusiones clave de Kurt
La IA es una tecnología poderosa que puede aportarnos grandes beneficios. Sin embargo, también conlleva grandes responsabilidades y retos. Tenemos que estar preparados para los riesgos potenciales que podría plantear la IA, especialmente a medida que se hace más avanzada y capaz.
{{#rendered}} {{/rendered}}
El equipo de Preparación es una nueva iniciativa que pretende precisamente eso. Estudiando y mitigando los riesgos fronterizos de los modelos de IA, el equipo espera garantizar que la IA se utilice para el bien y no para el mal, y que sirva a los mejores intereses de la humanidad y del planeta.
¿Qué opinas del futuro de la IA y de su impacto en la sociedad? ¿Te preocupa hacia dónde nos dirigimos con la Inteligencia Artificial? Háznoslo saber escribiéndonos a Cyberguy.com/Contacto
{{#rendered}} {{/rendered}}
Haz una pregunta a Kurt o dinos qué historias te gustaría que cubriéramos.
HAZ CLIC AQUÍ PARA OBTENER LA APLICACIÓN FOX NEWS
Respuestas a las preguntas más frecuentes de CyberGuy:
{{#rendered}} {{/rendered}}
{{#rendered}} {{/rendered}}
Copyright 2023 CyberGuy.com. Todos los derechos reservados.