Wed. Dec 31st, 2025

Un informe del Instituto AI Now de la Universidad de Nueva York encontró que una fuerza de trabajo de codificación masculina predominantemente blanca está causando sesgos en los algoritmos.

El informe destaca que, aunque se está reduciendo gradualmente, la falta de representación diversa en las principales compañías de tecnología como Microsoft, Google y Facebook está causando que las IA atiendan más a los hombres blancos.

Por ejemplo, en Facebook solo el 15 por ciento del personal de AI de la compañía son mujeres. El problema es aún más importante en Google, donde solo el 10 por ciento son mujeres.

Los autores del informe Sarah Myers West, Meredith Whittaker y Kate Crawford escribieron:

“Hasta la fecha, los problemas de diversidad de la industria de la IA y los problemas de sesgo en los sistemas que construye tienden a considerarse por separado.

Sugerimos que estas son dos versiones del mismo problema: los problemas de discriminación en la fuerza laboral y en la construcción del sistema están profundamente entrelazados ".

A medida que la inteligencia artificial se utiliza más en la sociedad, existe el peligro de que algunos grupos se queden atrás debido a sus ventajas, al tiempo que "refuerzan una idea estrecha de la persona" normal "".

Los investigadores resaltan ejemplos de donde esto ya está sucediendo:

  • El controvertido Rekognition de Amazon, la IA, luchó con las mujeres de piel oscura en particular, aunque un análisis separado ha encontrado que otras IA también enfrentan dificultades con los hombres no blancos.
  • Una AI de escaneo de currículum que se basó en ejemplos anteriores de solicitantes exitosos como referencia. La AI degradó a las personas que incluyeron "mujeres" en su currículum o que asistieron a universidades de mujeres.

La IA se está desplegando actualmente en pocas áreas que cambian la vida, pero eso está cambiando rápidamente. La policía ya está tratando de usar la tecnología para identificar a los delincuentes, incluso de forma preventiva en algunos casos, y para tomar decisiones de sentencia, incluso si alguien debe recibir una fianza.

"El uso de los sistemas de inteligencia artificial para la clasificación, detección y predicción de la raza y el género necesita una reevaluación urgente", anotaron los investigadores. "El despliegue comercial de estas herramientas es motivo de profunda preocupación".

¿Interesado en escuchar a los líderes de la industria discutir temas como este y sus casos de uso? Asista a los eventos coubicados de AI y Big Data Expo con los próximos espectáculos en Silicon Valley, Londres y Amsterdam para obtener más información. Co-localizado con la IoT Tech Expo, Blockchain Expo, y Cyber ​​Security & Cloud Expo.






By Erica Flores

Enamorada de la tecnología. Apasionada de la velocidad que la información puede adquirir en este mundo cambiante. Actualmente residiendo en Barcelona.