El Pentágono se acerca a un nuevo avance masivo en IA y aprendizaje automático

La Agencia de Proyectos de Investigación Avanzada de Defensa está persiguiendo un "gran avance" sin precedentes en tecnología de aprendizaje automático, y es pionera en un nuevo método de ciberseguridad destinado a frustrar múltiples ataques a la vez y detener ataques más recientes menos reconocibles para las defensas existentes.

El programa "Lifelong Learning Machines" (L2M) dirigido por DARPA, destinado a mejorar masivamente la IA y el aprendizaje automático en tiempo real, se basa en la premisa fundamental de que ciertos sistemas con capacidad de aprendizaje automático pueden tener dificultades para identificar, integrar y organizar algunos tipos de información nueva o complicada aún por ver.

"Si algo nuevo es lo suficientemente diferente, el sistema puede fallar. Por eso quería algún tipo de aprendizaje automático que aprendiera durante las experiencias. Los sistemas no saben qué hacer en algunas situaciones", Hava Siegelmann, directora del programa DARPA en la Oficina de Innovación de la Información y profesora de Informática en la Universidad de Massachusetts.

FACEBOOK NO PERMITE LA EXCLUSIÓN VOLUNTARIA DE LA "BÚSQUEDA" DE NÚMEROS DE TELÉFONO

El objetivo del programa emergente de alta tecnología podría explicarse en términos de "entrenamiento en tiempo real" inmediato. Si las máquinas aprenden incluso las cosas más difíciles o ambiguas mientras realizan análisis en tiempo real, entonces, como explica Siegelmann: "no estamos atados al conjunto de entrenamiento (información previamente compilada o almacenada). Juntamos los datos antiguos y los nuevos para volver a entrenar la red con todos los datos de entrenamiento".

El objetivo del programa emergente de alta tecnología podría explicarse en términos de "entrenamiento en tiempo real" inmediato. Si las máquinas aprenden incluso las cosas más difíciles o ambiguas mientras realizan análisis en tiempo real, entonces, como explica Siegelmann: "no estamos atados al conjunto de entrenamiento (información previamente compilada o almacenada). Juntamos los datos antiguos y los nuevos para volver a entrenar la red con todos los datos de entrenamiento".

Como explicó Sigelmann, hay ciertos tipos de matices o permutaciones de datos nunca vistos que representan una desviación de lo que una máquina de aprendizaje puede analizar normalmente. Además, también parece que la IA tiene ciertos límites, lo que significa que puede que aún no sea capaz de digerir y asimilar completamente algunas variables muy subjetivas, como los "sentimientos"... "instintos"... ciertos tipos de toma de decisiones matizadas que sólo permite la cognición humana... o cualquier cosa que no sea compatible con los algoritmos informáticos, las fórmulas matemáticas o algunos métodos de análisis puramente científicos. A la inversa, también puede decirse que, al recurrir a bases de datos que incluyen cosas como patrones del habla, comportamientos anteriores y otros tipos de pruebas catalogadas, la IA está ahora en la vanguardia de poder manejar fenómenos mucho más subjetivos, según algunos informáticos del sector.

Curiosamente, el LM2 tiene algunos paralelismos conceptuales con los fenómenos biológicos humanos, explicó Seigelmann. La sinergia avanzada entre la entrada y la salida, en tiempo real, es análoga a la forma en que un bebé aprehende su entorno, dijo.

"Cuando un bebé nace está aprendiendo todo el tiempo a adaptarse y a aprender todo el tiempo. La gente tiene miedo a las sorpresas. De eso se trata precisamente; cuanto más rápido sea capaz una máquina de absorber y procesar nueva información añadiéndola instantáneamente y sincronizándola con su base de datos existente, más rápido podrá entrenarse para reconocer y computar cosas nuevas", añadió Siegelmann.

Explorar la biología en relación con la creación de nuevos algoritmos informáticos no es algo nuevo. Los científicos del Pentágono llevan mucho tiempo inmersos en algo llamado "biomimética", en la que se analizan los patrones de rebaño de aves y abejas como forma de desarrollar nuevos algoritmos para drones, que les permitan coordinar funciones integradas, formar enjambres con precisión u operar en tándem sin colisionar.

Junto con el esfuerzo en curso de L2M, que avanza rápidamente, Siegelmann también hizo hincapié en una exploración relacionada, aunque distinta, orientada a la ciberseguridad y dirigida a frustrar ciberataques mucho más avanzados de lo que suele ocurrir.

EL ESPELUZNANTE ROBOT GUEPARDO DEL MIT AHORA PUEDE DAR VOLTERETAS HACIA ATRÁS

El concepto de ciberseguridad, denominado Garantía de Robustez de la IA frente al Engaño, está diseñado para comprender un nuevo tipo de ciberataque más sofisticado y, en palabras de Siegelmann, "hacer que el aprendizaje automático sea más sensible y que la IA sea más robusta y resistente".

El programa GARD está diseñado para hacer frente a métodos emergentes de intento de intrusión diseñados para "engañar", "confundir" o redirigir el sistema orientado al aprendizaje automático que está atacando.

"Este tipo de ataque podría implicar un algoritmo concreto diseñado para enviar algo al sistema de aprendizaje automático y, de hecho, enviar algo para hacer que la IA responda de una forma que no se esperaría... esencialmente confundir y engañar a la máquina para obligarla a tomar una decisión", dijo Siegelmann.

Si un ataque de este tipo tuviera éxito, por ejemplo, un atacante podría ordenar a un sistema con IA que "permitiera el acceso" a una red protegida y "abriera una puerta", en palabras de Siegelmann.

Siegelmann lo explicó en términos de una cierta sinergia simultánea entre entrada y salida. El enfoque permite a la ciberseguridad identificar, rastrear y frustrar una gama de ataques más amplia de lo que es posible actualmente, dijo un funcionario de DARPA.

"Los actuales esfuerzos de defensa se diseñaron para proteger contra ataques adversarios específicos y predefinidos y, al probarlos, seguían siendo vulnerables a ataques fuera de sus parámetros de diseño. GARD pretende enfocar la defensa del aprendizaje automático de forma diferente", explicó el responsable de DARPA en una declaración escrita.

Aunque se basa en la ciencia, el esfuerzo de GARD es muy incipiente. DARPA acaba de enviar un Anuncio de Área Amplia a la industria para solicitar su opinión, y tiene previsto lanzar formalmente el programa en diciembre de este año.

"Mejoraremos la IA para crear defensas de modo que el aprendizaje automático existente sea defendible, ya sea defendiendo el actual o creando un nuevo aprendizaje automático", añadió Siegelmann.

Más armas y tecnología - WARRIORMAVEN (HAZ CLIC AQUÍ)

Carga más..