Wed. Dec 31st, 2025

Gorjeo está reclutando la ayuda de la comunidad de HackerOne para tratar de solucionar los prejuicios preocupantes con sus modelos de inteligencia artificial.

El algoritmo de recorte de imágenes utilizado por Twitter estaba destinado a mantener las partes más interesantes de una imagen en el recorte de vista previa en las líneas de tiempo de las personas. Todo eso está bien, hasta que los usuarios descubrieron el año pasado que favorecía los colores de piel más claros sobre los oscuros y los senos y piernas de las mujeres sobre sus rostros.

Cuando los investigadores introdujeron en el sistema una imagen de un hombre negro y una mujer blanca, el algoritmo mostró a la mujer blanca el 64 por ciento del tiempo y al hombre negro solo el 36 por ciento del tiempo. Para las imágenes de una mujer blanca y una mujer negra, el algoritmo mostró a la mujer blanca el 57 por ciento del tiempo.

Twitter ha ofrecido recompensas que oscilan entre $ 500 y $ 3500 a cualquiera que encuentre evidencia de sesgo dañino en sus algoritmos. Cualquiera que tenga éxito también será invitado a DEF CON, una importante convención de hackers.

Rumman Chowdhury, Director de Ingeniería de Software en Twitter, y Jutta Williams, Gerente de Producto, escribieron en una publicación de blog:

"Queremos llevar este trabajo un paso más allá al invitar e incentivar a la comunidad para que ayude a identificar los daños potenciales de este algoritmo más allá de lo que nosotros mismos identificamos".

Después de negar inicialmente el problema, es bueno ver que Twitter se responsabiliza e intenta solucionar el problema. Al hacerlo, la compañía dice que quiere "sentar un precedente en Twitter, y en la industria, para la identificación proactiva y colectiva de los daños algorítmicos".

Tres empleados del departamento de Ética, Transparencia y Responsabilidad del Aprendizaje Automático de Twitter encontraron sesgos en sus propias pruebas y afirman que el algoritmo tiene, en promedio, alrededor de un cuatro por ciento más de probabilidades de mostrar personas con piel más clara en comparación con las más oscuras y un ocho por ciento más de probabilidades de mostrar mujeres. en comparación con los hombres.

Sin embargo, el personal no encontró evidencia de que ciertas partes del cuerpo de las personas fueran más propensas a mostrarse que otras.

“Descubrimos que no más de 3 de cada 100 imágenes por género tienen el recorte no en la cabeza”, explicaron en un artículo que se publicó en arXiv.

Twitter ha abandonado gradualmente su problemático algoritmo de recorte de imágenes y no parece tener prisa por restablecerlo pronto:

En su lugar, Twitter ha estado implementando la capacidad para que los usuarios controlen cómo se recortan sus imágenes.

"Consideramos las compensaciones entre la velocidad y la consistencia del cultivo automatizado con los riesgos potenciales que vimos en esta investigación", escribió Chowdhury en una publicación de blog En Mayo.

“Una de nuestras conclusiones es que no todo en Twitter es un buen candidato para un algoritmo, y en este caso, cómo recortar una imagen es una decisión que mejor toman las personas”.

Se puede encontrar la página de HackerOne para el desafío aquí.

(Foto de Edgar MORAN en Unsplash)

Encuentra mas sobre Semana de la Transformación Digital Norteamérica, que tendrá lugar del 9 al 10 de noviembre de 2022, un evento virtual y una conferencia que explora estrategias DTX avanzadas para un mundo de "todo digital".

La publicación de Twitter recurre a la comunidad de HackerOne para ayudar a corregir sus sesgos de IA que aparecieron primero en AI News.

By Erica Flores

Enamorada de la tecnología. Apasionada de la velocidad que la información puede adquirir en este mundo cambiante. Actualmente residiendo en Barcelona.