Categories: IANoticias

Más de 1,000 investigadores firman una carta que se opone a la IA de "predicción del crimen"

Más de 1,000 investigadores, académicos y expertos han firmado una carta abierta oponiéndose al uso de IA para predecir el crimen.

Cualquiera que haya visto el Minority Report clásico de ciencia ficción estará preocupado por los intentos de predecir el crimen antes de que ocurra. En un escenario ideal, la predicción del delito podría ayudar a determinar dónde asignar los recursos policiales, pero la realidad será muy diferente.

Los investigadores están hablando antes de una publicación inminente titulada "Un modelo de red neuronal profunda para predecir la criminalidad mediante el procesamiento de imágenes". En el documento, los autores afirman poder predecir si una persona se convertirá en un delincuente basándose en el reconocimiento facial automático.

"Al automatizar la identificación de posibles amenazas sin prejuicios, nuestro objetivo es producir herramientas para la prevención del delito, la aplicación de la ley y las aplicaciones militares que se vean menos afectadas por los prejuicios implícitos y las respuestas emocionales", dice el profesor de la Universidad de Harrisburg y coautor del artículo. Nathaniel JS Ashby

"Nuestro próximo paso es encontrar socios estratégicos para avanzar en esta misión".

Encontrar socios dispuestos puede ser un desafío. Los firmantes de la carta abierta incluyen empleados que trabajan en IA de gigantes tecnológicos como Microsoft, Google y Facebook.

En su carta, los firmantes destacan los muchos problemas de las tecnologías de inteligencia artificial de hoy en día que hacen que incursionar en la predicción del crimen sea tan peligroso.

La principal de las preocupaciones es el sesgo racial bien documentado de los algoritmos. Todos los sistemas actuales de reconocimiento facial son más precisos cuando se detectan hombres blancos y, a menudo, señalan incorrectamente a los miembros de la comunidad BAME como delincuentes con mayor frecuencia cuando se utilizan en un entorno de aplicación de la ley.

Sin embargo, incluso si se abordan las inexactitudes con los algoritmos de reconocimiento facial, los investigadores destacan los problemas con el sistema de justicia actual que se han puesto en el centro de atención en las últimas semanas después del asesinato de George Floyd.

En su carta, los investigadores explican:

"La investigación de esta naturaleza, y las afirmaciones que la acompañan sobre la precisión, se basan en la suposición de que los datos sobre arresto criminal y condena pueden servir como indicadores confiables y neutrales de la actividad criminal subyacente. Sin embargo, estos registros están lejos de ser neutrales.

Como han demostrado numerosos académicos, los datos históricos de la corte y el arresto reflejan las políticas y prácticas del sistema de justicia penal. Estos datos reflejan quién la policía elige arrestar, cómo los jueces deciden gobernar y qué personas reciben sentencias más largas o más indulgentes.

Innumerables estudios han demostrado que las personas de color son tratadas con más dureza que las personas blancas situadas de manera similar en todas las etapas del sistema legal, lo que resulta en serias distorsiones en los datos. Por lo tanto, cualquier software creado dentro del marco legal penal existente inevitablemente hará eco de esos mismos prejuicios e inexactitudes fundamentales a la hora de determinar si una persona tiene la "cara de un criminal".

Entre los coautores del artículo en disputa se encuentra Jonathan W. Korn, Ph.D. estudiante que se destaca como veterano de NYPD. Korn dice que la IA que puede predecir la criminalidad sería "una ventaja significativa para las agencias de aplicación de la ley".

Si bien dicho sistema facilitaría la vida de los agentes de la ley, lo haría a costa de la privacidad y la automatización del perfil racial.

“Los programas de aprendizaje automático no son neutrales; las agendas de investigación y los conjuntos de datos con los que trabajan a menudo heredan creencias culturales dominantes sobre el mundo ", advierten los autores de la carta.

"La aceptación acrítica de los supuestos por defecto conduce inevitablemente a un diseño discriminatorio en los sistemas algorítmicos, reproduciendo ideas que normalizan las jerarquías sociales y legitiman la violencia contra los grupos marginados".

Puedes encontrar la carta abierta completa aquí.

(Foto por Bill Oxford en Unsplash)

¿Interesado en escuchar a líderes de la industria discutir temas como este? Asista a la 5G Expo, IoT Tech Expo, Blockchain Expo, AI & Big Data Expo y Cyber ​​Security & Cloud Expo World Series con eventos próximos en Silicon Valley, Londres y Amsterdam.

Etiquetas: ai, inteligencia artificial, sesgo, predicción del delito, reconocimiento facial, reconocimiento facial, Destacado, aplicación de la ley, red neuronal, carta abierta, policía, vigilancia policial, perfil racial, investigación

Erica Flores

Enamorada de la tecnología. Apasionada de la velocidad que la información puede adquirir en este mundo cambiante. Actualmente residiendo en Barcelona.

Recent Posts

Uber utilizará la eSIM de Valid para casos de uso de IoT

Uber está mejorando sus implementaciones de IoT en todo el mundo mediante la adopción de…

3 years ago

Matter Motor Works se asocia con Airtel para habilitar sus bicicletas AERA con soluciones IoT

Obras de motor de materia y Bharti Airtel, un proveedor de servicios de telecomunicaciones ha…

3 years ago

Escultura de Zelda Guardian rastrea a humanos y mascotas a través de una cámara

En The Legend of Zelda: Breath of the Wild, los guardianes son una forma primitiva…

3 years ago

Nos encanta este diminuto Wall-E controlado por radio

Muchos de nosotros nos enamoramos absolutamente de Wall-E, el personaje principal de una…

3 years ago

Serie Samsung Galaxy S24: fecha de lanzamiento, especificaciones, precio y todos los rumores hasta ahora

Dhruv Bhutani / Android AuthorityCada año, los fanáticos de los teléfonos inteligentes esperan con ansias…

3 years ago

Final Cut Pro para iPad: fecha de lanzamiento, características, compatibilidad, precio

Apple ha anunciado que Final Cut Pro finalmente llegará para el iPad. Tras años de…

3 years ago