A los expertos les preocupa que los terroristas encuentren usos novedosos y problemáticos para la inteligencia artificial (IA), incluidos nuevos métodos de distribución de explosivos y la mejora de sus iniciativas de captación en línea.
"La realidad es que la IA puede ser extremadamente peligrosa si se utiliza con mala intención", escribió Antonia Marie De Meo, directora del Instituto Interregional de las Naciones Unidas para Investigaciones sobre la Delincuencia y la Justicia, en un informe en el que se analizaba cómo podrían utilizar la IA los terroristas.
"Con un historial probado en el mundo de la ciberdelincuencia, se trata de una poderosa herramienta que podría emplearse para facilitar aún más el terrorismo y el extremismo violento conducente al terrorismo", añadió, citando los coches bomba autodirigidos, el aumento de los ciberataques o la búsqueda de vías más fáciles para difundir discursos de odio o incitar a la violencia en línea.
El informe, "Algoritmos y terrorismo: El uso malintencionado de la Inteligencia Artificial con fines terroristas", concluye que las fuerzas de seguridad tendrán que mantenerse a la vanguardia de la IA.
"Aspiramos a que [este informe] sea el inicio de la conversación sobre el uso malintencionado de la IA con fines terroristas", escribió De Meo.
El informe señalaba que la tarea de adelantarse a los terroristas y anticipar cómo pueden utilizar la IA resultará una tarea obstinada, ya que requiere no sólo pensar en formas de utilizar la IA que nadie haya considerado antes, sino también averiguar cómo impedir que alguien emplee ese mismo método.
El informe respalda un estudio de una colaboración entre el COE-DAT de la OTAN y el Instituto de Estudios Estratégicos de la Escuela de Guerra del Ejército de Estados Unidos, "Tecnologías emergentes y terrorismo: Una perspectiva estadounidense", que sostenía que "los grupos terroristas están explotando estas herramientas para el reclutamiento y los atentados".
"La línea que separa la realidad de la ficción se difumina en la era de la rápida evolución tecnológica, lo que urge a los gobiernos, las industrias y el mundo académico a unirse en la elaboración de marcos éticos y normativos", escriben los autores en la introducción.
"A medida que cambian las mareas geopolíticas, la OTAN subraya la responsabilidad nacional en la lucha contra el terrorismo y aboga por la fuerza colectiva frente al inminente espectro de las amenazas de origen tecnológico", añaden los autores.
El estudio señala casos generales de uso de la ChatGPT de OpenAI para "mejorar los correos electrónicos de phishing, plantar malware en bibliotecas de código abierto, difundir desinformación y crear propaganda en línea".
"Los ciberdelincuentes y los terroristas se han convertido rápidamente en expertos en el uso de este tipo de plataformas y de grandes modelos lingüísticos en general para crear deepfakes o chatbots alojados en la web oscura para obtener información personal y financiera sensible o para planear atentados terroristas o reclutar adeptos", escribieron los autores.
"Es probable que este uso malintencionado aumente en el futuro a medida que los modelos se vuelvan más sofisticados", añadieron. "La forma en que se almacenan y distribuyen las conversaciones sensibles y las búsquedas en Internet en plataformas de IA o mediante grandes modelos lingüísticos requerirá más transparencia y controles".
A principios de este año, el Centro de Lucha contra el Terrorismo de West Point publicó una investigación sobre el tema, centrada en la capacidad de mejorar las capacidades de planificación de atentados terroristas, yendo más allá de la mera mejora de lo que ya están haciendo.
¿QUÉ ES LA INTELIGENCIA ARTIFICIAL (AI)?
"Concretamente, los autores investigaron las implicaciones potenciales de los comandos que pueden introducirse en estos sistemas y que efectivamente 'liberan' el modelo, permitiéndole eliminar muchas de sus normas y políticas que impiden que el modelo base proporcione contenidos extremistas, ilegales o poco éticos", explicaron los autores en su resumen.
"Utilizando múltiples relatos, los autores exploraron las diferentes formas en que los extremistas podrían utilizar potencialmente cinco grandes modelos lingüísticos diferentes para apoyar sus esfuerzos en el entrenamiento, la realización de la planificación operativa y el desarrollo de la propaganda."
HAZ CLIC AQUÍ PARA OBTENER LA APLICACIÓN FOX NEWS
Sus pruebas revelaron que el Bard era el más resistente al jailbreaking -o eludir los guardarraíles-, seguido de cada uno de los modelos ChatGPT . Principalmente, encontraron que las indicaciones indirectas eran relativamente suficientes para hacer jailbreak a un modelo en más de la mitad de los casos.
El estudio concluye que los guardarraíles de fuga necesitan una revisión constante y "una mayor cooperación entre los sectores público y privado", incluidos el mundo académico, las empresas tecnológicas y la comunidad de seguridad.