Los demócratas quieren que el gobierno de EE.UU. audite la "caja negra" del sesgo de la IA

(Fox News)

¿Pueden auditarse los algoritmos que impulsan la innovación en las mayores empresas de Silicon Valley, como Amazon, Facebook y Google, para detectar sesgos?

Tanto si buscas información en Google, como si te sometes a la tecnología de reconocimiento facial creada por Amazon, te preguntas si retirarán tu publicación de Facebook o tienes curiosidad por saber si tu currículum ha llegado a lo más alto de la pila, los sistemas entre bastidores alimentados por algoritmos esencialmente incognoscibles están impulsando estos y otros innumerables procesos en línea y fuera de línea.

Un proyecto de ley presentado el miércoles por los senadores demócratas Ron Wyden y Cory Booker, denominada Ley de Responsabilidad Algorítmica, pretende obligar a los gigantes tecnológicos a auditar sus sistemas de aprendizaje automático e inteligencia artificial en busca de sesgos. En la Cámara de Representantes se ha presentado un proyecto de ley similar.

MILES DE TRABAJADORES DE AMAZON ESCUCHAN GRABACIONES DE ALEXA: INFORMES

Las empresas tecnológicas se han resistido a compartir mucha información sobre el funcionamiento de estos sistemas informáticos internos. Por ello, a menudo se les califica de "cajas negras" que pueden dar lugar a abusos. Donde no hay luz, dicen los críticos, pueden florecer los prejuicios y la discriminación contra grupos por motivos de raza, sexo y otros rasgos.

"Los daños no se distribuyen por igual, pero esto está en nuestras vidas, ¿verdad?". preguntó Meredith Whittaker, cofundadora del AI Now Institute, en una conversación reciente con Kara Swisher. "Hay IA de perfiles de matrículas que están rastreando a la gente cuando pasa por distintos puentes de Nueva York. Hay sistemas que determinan en qué colegio se matricula tu hijo. Hay sistemas automatizados de puntuación de redacciones que determinan si están bien escritas. ¿De quién es esa versión del inglés escrito? ¿Y qué es lo que recompensa o no? ¿Qué tipo de creatividad puede atravesar eso?".

El proyecto de ley facultaría a la Comisión Federal de Comercio para crear y aplicar nuevas normas que obliguen a las empresas a comprobar la exactitud, parcialidad y posibles problemas de privacidad o seguridad de sus sistemas automatizados, y a corregirlos si se descubren problemas. Las empresas más pequeñas que ganan menos de 50 millones de dólares al año están exentas, a menos que sean intermediarios de datos con información sobre al menos 1 millón de clientes.

EMPLEADOS DE AMAZON A EJECUTIVOS: HAZ MÁS POR EL CAMBIO CLIMÁTICO

"Los ordenadores intervienen cada vez más en muchas de las decisiones clave que toman los estadounidenses con respecto a su vida cotidiana: si alguien puede comprar una casa, conseguir un trabajo o incluso ir a la cárcel", dijo el senador Ron Wyden en una entrevista con The Associated Press.

Los defensores de un enfoque más ético de la inteligencia artificial han señalado que los sistemas de aprendizaje automático siguen estando construidos por humanos -en términos de los principales actores de Silicon Valley, eso significa normalmente hombres blancos- y, por tanto, no deben considerarse neutrales o infalibles.

"[Amazon] tardó dos años en diseñar, básicamente, un escáner automático de currículos con IA", dijo Kate Crawford, del AI Now Institute , a Swisher en el podcast. "Y descubrieron que era tan tendencioso contra cualquier candidata femenina que si siquiera tenías la palabra 'mujer' en tu currículum, éste iba al fondo de la pila".

HAZ CLIC AQUÍ PARA ACCEDER A LA APLICACIÓN FOX NEWS

Carga más..