La IA debe ser creada por una amplia gama de desarrolladores para evitar sesgos, pero el Foro Económico Mundial (WEF, por sus siglas en inglés) ha encontrado una gran brecha de género.
Las brechas de género en las carreras de STEM han sido un problema durante algún tiempo, pero no es frecuente que el producto final importe el género en el que fue desarrollado. AI está a punto de estar en todas partes y es importante que sea representante de aquellos a quienes sirve.
En un informe publicado esta semana, el WEF escribió:
“La contribución igualitaria de mujeres y hombres en este proceso de profunda transformación económica y social es crítica.
Más que nunca, las sociedades no pueden darse el lujo de perder las habilidades, ideas y perspectivas de la mitad de la humanidad para realizar la promesa de un futuro más próspero y humancéntrico que la innovación y la tecnología bien gobernadas pueden brindar ".
Sorprendentemente, el informe del WEF encontró que menos de una cuarta parte de los roles en la industria están siendo ocupados por mujeres. Para poner eso en perspectiva, la brecha de género de la IA es aproximadamente tres veces mayor que la de otros grupos de talentos de la industria.
"Es absolutamente crucial que las personas que crean IA sean representativas de la población en general", dijo Kay Firth-Butterfield, jefa de inteligencia artificial y aprendizaje automático de WEF.
El sesgo en la codificación tiene el potencial de que la IA se desempeñe mejor para ciertos grupos de la sociedad que otros, lo que potencialmente les otorga una ventaja. Este sesgo rara vez es intencional, pero ya ha encontrado su camino en los desarrollos de AI.
UNA prueba reciente de la tecnología de reconocimiento facial de Amazon por parte de la ACLU (American Civil Liberties Union) encontró que se etiquetaba erróneamente con mayor frecuencia a aquellos con colores de piel más oscuros como criminales.
De manera similar, un estudio realizado en 2010 por investigadores del NIST y la Universidad de Texas en Dallas encontró que los algoritmos diseñados y probados en el este de Asia son mejores para reconocer a los asiáticos orientales, mientras que los diseñados en los países occidentales son más precisos en la detección de caucásicos.
Más recientemente, Google lanzó una función de texto predictivo dentro de Gmail donde el algoritmo hizo suposiciones sesgadas en relación con una enfermera con pronombres femeninos.
Está claro, abordar la brecha de género es más apremiante que nunca.
Puedes encontrar el informe completo aquí.
¿Interesado en escuchar a los líderes de la industria discutir temas como este y sus casos de uso? Asistir a la co-ubicación AI y Big Data Expo eventos con los próximos espectáculos en Silicon Valley, Londres y Amsterdam para aprender más. Co-localizado con el IoT Tech Expo, Blockchain Expoy Cyber Security & Cloud Expo.