El jefe de la policía de Detroit, James Craig, ha reconocido que el reconocimiento facial impulsado por IA no funciona la gran mayoría de las veces.
"Si usáramos el software solamente (para la identificación del sujeto), no resolveríamos el caso el 95-97 por ciento de las veces", dijo Craig. "Si solo usáramos la tecnología por sí misma para identificar a alguien, diría que el 96 por ciento de las veces se identificaría erróneamente".
Los comentarios de Craig llegan pocos días después de que la ACLU (American Civil Liberties Union) presentara una queja contra la policía de Detroit tras el terrible arresto injusto del hombre negro Robert Williams debido a un error de reconocimiento facial.
La policía de Detroit arrestó a Williams por presuntamente robar cinco relojes valorados en $ 3800 de una tienda en octubre de 2018. Una imagen borrosa de CCTV fue emparejada por un algoritmo de reconocimiento facial con la foto de la licencia de conducir de Williams.
Se sabe que los algoritmos actuales de IA tienen un problema de racismo. Amplios estudios han demostrado repetidamente que los algoritmos de reconocimiento facial son casi 100 por ciento precisos cuando se usan en hombres blancos, pero tienen serios problemas cuando se trata de colores de piel más oscuros y el sexo más justo.
Este problema de racismo se mostró nuevamente esta semana después de que una IA diseñada para mejorar las fotos borrosas, como las que a menudo se toman de las cámaras de seguridad, se aplicó a una variedad de personas de las comunidades BAME.
Aquí hay uno particularmente famoso:
??? pic.twitter.com/LG2cimkCFm
– Chicken3gg (@ Chicken3gg) 20 de junio de 2020
Y algunos otros ejemplos:
La semana pasada, Boston siguió los pasos de un número cada vez mayor de ciudades como San Francisco, Oakland y California al prohibir la tecnología de reconocimiento facial por cuestiones de derechos humanos.
“El reconocimiento facial es inherentemente peligroso e inherentemente opresivo. No puede ser reformado o regulado. Debe ser abolido ", dijo Evan Greer, subdirector del grupo de derechos digitales Fight for the Future.
Al otro lado del estanque, las pruebas de reconocimiento facial en el Reino Unido hasta ahora también han sido un completo fracaso. Una prueba inicial en el Carnaval de Notting Hill 2016 llevó a que no se identificara a una sola persona. Un ensayo de seguimiento al año siguiente no dio lugar a coincidencias legítimas sino a 35 falsos positivos.
Un informe independiente sobre los ensayos de reconocimiento facial de la Policía Met, realizado el año pasado por el profesor Peter Fussey y el Dr. Daragh Murray, concluyó que solo era verificablemente preciso en solo el 19 por ciento de los casos.
El siguiente paso escalofriante para la IA en la vigilancia es usarlo para predecir crimen. Tras la noticia de una publicación inminente llamada "Un modelo de red neuronal profunda para predecir la criminalidad mediante el procesamiento de imágenes", más de 1000 expertos firmaron una carta abierta la semana pasada oponiéndose al uso de IA para tales fines.
“Los programas de aprendizaje automático no son neutrales; las agendas de investigación y los conjuntos de datos con los que trabajan a menudo heredan creencias culturales dominantes sobre el mundo ", advirtieron los autores de la carta.
El reconocimiento del jefe de policía de Detroit de que las tecnologías actuales de reconocimiento facial no funcionan en alrededor del 96 por ciento de los casos debería ser motivo suficiente para detener su uso, especialmente para la aplicación de la ley, al menos hasta que se realicen mejoras serias.
(Foto por Joshua Hoehne en Unsplash)
¿Interesado en escuchar a líderes de la industria discutir temas como este? Asista a la 5G Expo, IoT Tech Expo, Blockchain Expo, AI & Big Data Expo y Cyber Security & Cloud Expo World Series con eventos próximos en Silicon Valley, Londres y Amsterdam.