Un nuevo estudio federal descubrió que muchos de los mejores algoritmos de reconocimiento facial del mundo están sesgados en función de la edad, la raza y el origen étnico. Según el estudio del Instituto Nacional de Estándares y Tecnología (NIST), los algoritmos que se venden actualmente en el mercado pueden identificar erróneamente a los miembros de algunos grupos hasta 100 veces más frecuentemente que otros.
El NIST dice que encontró "evidencia empírica" de que características como la edad, el género y la raza afectan la precisión de la "mayoría" de los algoritmos. El grupo probó 189 algoritmos de 99 organizaciones, que en conjunto potencian la mayoría de los sistemas de reconocimiento facial en uso a nivel mundial.
Los hallazgos proporcionan aún más evidencia de que muchos de los algoritmos de reconocimiento facial más avanzados del mundo no están listos para su uso en áreas críticas como la aplicación de la ley y la seguridad nacional. Los legisladores calificaron el estudio de "impactante" The Washington Post informes, y pidió al gobierno de los Estados Unidos que reconsidere los planes de usar la tecnología para asegurar sus fronteras.
El estudio probó cheques "uno a uno", utilizados para comparar a alguien con un pasaporte o tarjeta de identificación, así como búsquedas "uno a muchos", donde alguien coincide con un solo registro en una base de datos más grande. Las mujeres afroamericanas se identificaron incorrectamente con mayor frecuencia en las búsquedas de uno a muchos, mientras que las asiáticas, afroamericanas, nativas americanas e isleñas del Pacífico se identificaron erróneamente en las búsquedas de uno a uno. Los niños y los ancianos también fueron identificados falsamente más. En algunos casos, los asiáticos y afroamericanos fueron identificados erróneamente hasta 100 veces más que los hombres blancos. Las tasas de precisión más altas se encontraron generalmente entre los hombres blancos de mediana edad.
El estudio NIST se basó en que las organizaciones enviaran voluntariamente sus algoritmos para realizar pruebas. Pero faltaba en la lista Amazon, que vende su software Rekognition a la policía local y a los investigadores federales. Estudios anteriores han planteado preocupaciones sobre la precisión del sistema de Amazon, y los investigadores de IA han pedido a la compañía que deje de vender su sistema "defectuoso". Amazon afirma que su software no puede analizarse fácilmente mediante las pruebas de NIST (a pesar de que las empresas de tecnología con productos similares no tienen problemas para presentar sus algoritmos) y sus accionistas se han resistido a las llamadas para frenar las ventas de Rekognition.
Los expertos dicen que el sesgo en estos algoritmos podría reducirse mediante el uso de un conjunto más diverso de datos de entrenamiento. Los investigadores encontraron que los algoritmos desarrollados en países asiáticos, por ejemplo, no tenían una diferencia tan grande en las tasas de error entre caras blancas y asiáticas.
Sin embargo, incluso solucionar el problema del sesgo no resolverá todos los problemas con el reconocimiento facial cuando la tecnología se use de manera que no respete la seguridad o la privacidad de las personas.
"¿De qué sirve desarrollar tecnología de análisis facial que luego se arma", dijo Joy Buolamwini, una investigadora de IA que encabezó las investigaciones sobre el sesgo de reconocimiento facial. El borde el año pasado, "Las consideraciones técnicas no pueden separarse de las implicaciones sociales".
Uber está mejorando sus implementaciones de IoT en todo el mundo mediante la adopción de…
Obras de motor de materia y Bharti Airtel, un proveedor de servicios de telecomunicaciones ha…
En The Legend of Zelda: Breath of the Wild, los guardianes son una forma primitiva…
Muchos de nosotros nos enamoramos absolutamente de Wall-E, el personaje principal de una…
Dhruv Bhutani / Android AuthorityCada año, los fanáticos de los teléfonos inteligentes esperan con ansias…
Apple ha anunciado que Final Cut Pro finalmente llegará para el iPad. Tras años de…