Este sitio web fue traducido automáticamente. Para obtener más información, por favor haz clic aquí.

Los investigadores advierten de que las tecnologías de reconocimiento facial son "más amenazadoras de lo que se pensaba" y plantean "serios desafíos a la privacidad", después de que un estudio descubriera que la inteligencia artificial puede predecir con éxito la orientación política de una persona basándose en imágenes de rostros inexpresivos. 

Un estudio reciente publicado en la revista American Psychologist afirma que la capacidad de un algoritmo para adivinar con precisión las opiniones políticas de una persona está "a la altura de lo bien que las entrevistas de trabajo predicen el éxito laboral, o el alcohol impulsa la agresividad". El autor principal, Michal Kosinski, dijo a Fox News Digital que 591 participantes rellenaron un cuestionario de orientación política antes de que la IA capturara lo que describió como una "huella digital" numérica de sus rostros y la comparara con una base de datos de sus respuestas para predecir sus opiniones. 

"Creo que la gente no se da cuenta de lo mucho que expone con sólo poner una foto ahí fuera", dijo Kosinski, profesor asociado de Comportamiento Organizativo en la Escuela de Negocios de la Universidad de Stanford.  

"Sabemos que hay que proteger la orientación sexual, la orientación política y las opiniones religiosas de las personas. Antes era diferente. Antes, podías entrar en la cuenta de Facebook de cualquier persona y ver, por ejemplo, sus opiniones políticas, los me gusta, las páginas que sigue. Pero hace muchos años, Facebook lo cerró porque los responsables políticos, Facebook y los periodistas tenían claro que no era aceptable. Es demasiado peligroso", continuó.

GOOGLE CONSOLIDA LOS EQUIPOS DE INVESTIGACIÓN Y DEEPMIND CENTRADOS EN LA INTELIGENCIA ARTIFICIAL 

Estudio político de la IA

El estudio utilizó IA para predecir la orientación política de las personas basándose en imágenes de rostros sin expresión.

"Pero puedes ir a Facebook y ver la foto de cualquiera. Esta persona nunca te conoció, nunca te permitió ver una foto, nunca compartiría su orientación política... y, sin embargo, Facebook te muestra su foto, y lo que nuestro estudio demuestra es que esto equivale esencialmente, hasta cierto punto, a decirte cuál es su orientación política", añadió Kosinski.

Para el estudio, los autores dijeron que las imágenes de los participantes se recogieron de forma muy controlada.

"Los participantes llevaban una camiseta negra ajustada con pinzas de encuadernación para cubrirse la ropa. Se quitaron todas las joyas y, si era necesario, se afeitaron el vello facial. Se utilizaron toallitas faciales para eliminar los cosméticos hasta que no se detectaron residuos en una nueva toallita. Se recogieron el pelo con gomas, horquillas y una diadema, teniendo cuidado de que no se les escapara", escribieron. 

A continuación, el algoritmo de reconocimiento facial VGGFace2 examinó las imágenes para determinar los "descriptores faciales, o un vector numérico que es a la vez exclusivo de ese individuo y coherente en sus distintas imágenes", dijo.

LAS FUERZAS AÉREAS CONFIRMAN EL PRIMER COMBATE AÉREO AÉREO CON ÉXITO 

Logotipos de los partidos Demócrata y Republicano

Se dice que la IA puede predecir orientaciones políticas a partir de rostros en blanco. (Jakub Porzycki/NurPhoto vía Getty Images/Archivo)

"Los descriptores extraídos de una imagen dada se comparan con los almacenados en una base de datos. Si son lo suficientemente similares, se considera que los rostros coinciden. En este caso, utilizamos una regresión lineal para asignar los descriptores faciales a una escala de orientación política y, a continuación, utilizamos esta asignación para predecir la orientación política de un rostro no visto previamente", dice también el estudio. 

Los autores escribieron que sus conclusiones "subrayan la urgencia de que los académicos, el público y los responsables políticos reconozcan y aborden los riesgos potenciales de la tecnología de reconocimiento facial para la intimidad personal" y que un "análisis de los rasgos faciales asociados a la orientación política reveló que los conservadores tendían a tener caras más grandes y bajas."

"Quizá lo más crucial sea que nuestros hallazgos sugieren que las tecnologías de vigilancia biométrica generalizada son más amenazadoras de lo que se pensaba", advirtió el estudio. "Investigaciones anteriores demostraron que las imágenes faciales naturalistas transmiten información sobre la orientación política y otros rasgos íntimos. Pero no estaba claro si las predicciones las permitía la autopresentación, los rasgos faciales estables o ambos. Nuestros resultados, que sugieren que los rasgos faciales estables transmiten una parte sustancial de la señal, implican que los individuos tienen menos control sobre su intimidad." 

Kosinski dijo a Fox News Digital que "los algoritmos pueden aplicarse muy fácilmente a millones de personas de forma muy rápida y barata" y que el estudio es "más bien una advertencia" sobre la tecnología "que está en tu teléfono y se utiliza muy ampliamente en todas partes". 

Estatuas demócratas y republicanas

Se dice que la IA puede predecir orientaciones políticas a partir de rostros en blanco. (Visions of America/Universal Images Group vía Getty Images/Archivo)

HAZ CLIC AQUÍ PARA OBTENER LA APLICACIÓN FOX NEWS 

Los autores llegaron a la conclusión de que "incluso las estimaciones burdas de los rasgos de carácter de las personas pueden mejorar significativamente la eficacia de las campañas de persuasión masiva en línea" y que "los académicos, el público y los responsables políticos deberían tomar nota y considerar la posibilidad de endurecer las políticas que regulan la grabación y el procesamiento de imágenes faciales."