Wed. Dec 31st, 2025

Las herramientas de AI para determinar el riesgo de un individuo se utilizan para tomar decisiones de encarcelamiento y sentencia.

Durante la conferencia Data for Black Lives el pasado fin de semana, varios expertos compartieron cómo la IA está evolucionando en el controvertido sistema penitenciario de Estados Unidos.

Estados Unidos encarcela a más personas que cualquier otra nación. No es solo un resultado de la población del país, el encarcelamiento per cápita es el más alto del mundo con aproximadamente 716 por 100,000 de la población nacional. La segunda más grande, Rusia, encarcela a unos 455 por cada 100.000 habitantes.

Los hombres negros son, con diferencia, los más encarcelados de Estados Unidos:

La IA ha demostrado tener problemas de sesgo. El año pasado, la American Civil Liberties Union descubrió que la tecnología de reconocimiento facial de Amazon marcaba de manera desproporcionada a aquellos con colores de piel más oscuros como delincuentes con mayor frecuencia.

El sesgo no es intencional, sino el resultado de un problema más amplio en la diversidad profesional de STEM. En el oeste, los campos están dominados por los machos blancos.

Un estudio realizado en 2010 por investigadores del NIST y la Universidad de Texas en Dallas encontró que los algoritmos (PDF) diseñados y probados en el este de Asia son mejores para reconocer a los asiáticos orientales, mientras que los desarrollados en los países occidentales son más precisos al detectar caucásicos.

La implementación de estas IA con sesgos inherentes está destinada a exacerbar los problemas sociales. Lo más preocupante es que las salas de audiencias de los EE. UU. Están utilizando herramientas de AI para las evaluaciones de "riesgo" para tomar decisiones de sentencia.

Usando el perfil de un acusado, la IA genera un puntaje de reincidencia, un número que apunta a estimar si una persona reincidirá. Luego, un juez usa ese puntaje para tomar decisiones, como la severidad de su sentencia, los servicios que se deben proporcionar a la persona y si una persona debe ser encarcelada antes del juicio.

En julio pasado, más de 100 organizaciones de derechos civiles, incluida la ACLU, firmaron una declaración (PDF) en la que pedían que se mantuviera a AI libre de las evaluaciones de riesgo.

Cuando se resuelve el problema de sesgo con las IA, su uso en el sistema de justicia podría mejorar la confianza en las decisiones. Las preguntas actuales sobre si un juez fue perjudicado en su sentencia serán reducidas. Sin embargo, todavía no hemos llegado a ese punto.

¿Interesado en escuchar a los líderes de la industria discutir temas como este y sus casos de uso? Asista a los eventos coautorizados de AI y Big Data Expo con los próximos espectáculos en Silicon Valley, Londres y Ámsterdam para obtener más información. Coubicado con IoT Tech Expo, Blockchain Expo y Cyber ​​Security & Cloud Expo.





By Erica Flores

Enamorada de la tecnología. Apasionada de la velocidad que la información puede adquirir en este mundo cambiante. Actualmente residiendo en Barcelona.