El DHS publica nuevas directrices para el uso de la IA en misiones y anuncia un nuevo oficial
El DHS utiliza más de 200 cámaras de vigilancia con IA en la frontera para detectar y marcar dónde se producen cruces humanos
{{#rendered}} {{/rendered}}
El Departamento de Seguridad Nacional (DHS) desveló el jueves nuevos límites para su uso de la inteligencia artificial en el desempeño de su misión de asegurar la frontera.
Las nuevas políticas fueron desarrolladas por el Grupo de Trabajo sobre Inteligencia Artificial (AITF) del DHS, que el Secretario del DHS, Alejandro Mayorkas, creó en abril.
Al anunciar estas nuevas políticas, el DHS señaló que la IA ha sido fundamental para sus misiones, como la lucha contra el tráfico de fentanilo, el refuerzo de la seguridad de la cadena de suministro, la lucha contra la explotación sexual y la protección de las infraestructuras críticas.
{{#rendered}} {{/rendered}}
Mayorkas escribe en el memorándum sobre la política de IA, cuya publicación está prevista para más tarde el jueves, que EE.UU. debe garantizar que la IA se somete a "pruebas rigurosas para que sea eficaz [y] salvaguarde la privacidad, los derechos civiles y las libertades civiles, evitando al mismo tiempo sesgos inadecuados".
El DHS ya ha utilizado ampliamente la tecnología de IA en la frontera sur, sobre todo con el uso de más de 200 cámaras de vigilancia para detectar y marcar dónde se producen cruces humanos.
{{#rendered}} {{/rendered}}
El DHS dice que ha nombrado al Director de Información (CIO) Eric Hysen primer Director de IA del Departamento. Hysen, que tenía previsto comparecer ante el Congreso el jueves, promoverá la innovación y la seguridad de la IA dentro del Departamento, dijo el DHS.
"Creo que el potencial de daño involuntario por el uso de la IA existe en cualquier agencia federal y en cualquier uso de la IA", dijo Hysten. "Interactuamos con más personas a diario que cualquier otra agencia federal. Y cuando interactuamos con las personas, puede ser durante algunos de los momentos más críticos de sus vidas."
{{#rendered}} {{/rendered}}
Históricamente, los académicos han señalado los peligros de la IA en relación con la elaboración de perfiles raciales, porque aún puede cometer errores al identificar relaciones en datos complejos.
Como parte de la nueva política, los estadounidenses pueden rechazar el uso de la tecnología de reconocimiento facial en diversas situaciones, incluida la facturación en los viajes aéreos.
Las nuevas directrices del DHS también exigirán que las coincidencias de reconocimiento facial descubiertas mediante tecnología de IA sean revisadas manualmente por analistas humanos para garantizar su exactitud, según una nueva directiva que la agencia tiene previsto publicar junto con el memorando sobre IA.
{{#rendered}} {{/rendered}}
MAYORKAS CANCELA OFICIALMENTE LA JUNTA DE GOBIERNO DE DESINFORMACIÓN DE SEGURIDAD NACIONAL
Durante una comparecencia ante el Congreso, Hysen tenía previsto destacar un caso reciente ocurrido en el puerto de entrada de San Isidro, en California, en el que agentes de la Patrulla de Aduanas y Fronteras habían utilizado modelos avanzados de aprendizaje automático (ML) para señalar un coche anodino que circulaba hacia el norte desde México por tener un "patrón potencialmente sospechoso".
HAZ CLIC AQUÍ PARA OBTENER LA APLICACIÓN FOX NEWS
{{#rendered}} {{/rendered}}
Los agentes descubrieron más tarde 75 kilogramos de droga en el depósito de gasolina y en los paneles traseros del coche.
Reuters ha contribuido a este informe.