header-logo

Comunicación de marketing impulsada por inteligencia artificial

iCrowdNewswire Spanish

El estudio federal de los principales algoritmos de reconocimiento facial encuentra "evidencia empírica" de sesgo

Dec 25, 2019 1:38 AM ET

Ilustración por James Bareham / The Verge

Un nuevo estudio federal ha encontrado que muchos de los algoritmos de reconocimiento facial más testarona del mundo están sesgados a lo largo de las líneas de edad, raza y etnia. Según el estudio del Instituto Nacional de Estándares y Tecnología (NIST), los algoritmos que se venden actualmente en el mercado pueden identificar erróneamente a miembros de algunos grupos hasta 100 veces más frecuentemente que otros.

NIST dice que encontró “evidencia empírica” de que características como la edad, el género y la precisión del impacto de la raza para la “mayoría” de los algoritmos. El grupo probó 189 algoritmos de 99 organizaciones, que en conjunto impulsan la mayoría de los sistemas de reconocimiento facial en uso global.

Los hallazgos proporcionan aún más evidencia de que muchos de los algoritmos de reconocimiento facial más avanzados del mundo no están listos para su uso en áreas críticas como la aplicación de la ley y la seguridad nacional. Los legisladores llamaron al estudio “shocking”, informa The Washington Post, y pidieron al gobierno de Estados Unidos que reconsiderara los planes de usar la tecnología para asegurar sus fronteras.

El estudio probó los cheques “uno a uno”, utilizados para emparejar a alguien con un pasaporte o tarjeta de identificación, así como las búsquedas “uno a varios”, donde alguien coincide con un solo registro en una base de datos más grande. Las mujeres afroamericanas fueron identificadas con mayor frecuencia en búsquedas de uno a varios, mientras que las asiáticas, afroamericanas, nativas americanas y los isleños del Pacífico fueron identificados erróneamente en búsquedas uno a uno. Los niños y los ancianos también fueron identificados falsamente más. En algunos casos, los asiáticos y afroamericanos fueron identificados erróneamente hasta 100 veces más que los hombres blancos. Las tasas de precisión más altas se encontraron generalmente entre los hombres blancos de mediana edad.

El estudio del NIST se basó en que las organizaciones sometían voluntariamente sus algoritmos para las pruebas. Pero faltaba de la lista Amazon, que vende su software Rekognition a la policía local y a los investigadores federales. Estudios anteriores han suscitado preocupaciones sobre la precisión del sistema de Amazon, y los investigadores de IA han pedido a la compañía que deje de vender su sistema “defectuoso”. Amazon afirma que su software no puede ser fácilmente analizado por las pruebas de NIST (a pesar de que las empresas tecnológicas con productos similares no tienen ningún problema en presentar sus algoritmos) y sus accionistas se han resistido a las llamadas para frenar las ventas de Rekognition.

Los expertos dicen que el sesgo en estos algoritmos podría reducirse mediante el uso de un conjunto más diverso de datos de entrenamiento. Los investigadores encontraron que los algoritmos desarrollados en los países asiáticos, por ejemplo, no tenían una diferencia tan grande en las tasas de error entre las caras blancas y asiáticas.

Sin embargo, incluso solucionar el problema del sesgo no resolverá todos los problemas con el reconocimiento facial cuando la tecnología se utiliza de maneras que no respetan la seguridad o privacidad de las personas.

“¿De qué sirve desarrollar la tecnología de análisis facial que luego se arma?” Joy Buolamwini, una investigadora de IA que ha encabezado investigaciones sobre el sesgo de reconocimiento facial, dijo a The Verge el año pasado. “Las consideraciones técnicas no pueden separarse de las implicaciones sociales”.

Contact Information:

Jon Porter
Keywords:  afds, afdsafds

Tags:  News, Spanish, United States, Wire