Categories: NoticiasTecnología

Vea cómo un sistema de inteligencia artificial lo clasifica en función de su selfie

La inteligencia artificial moderna es a menudo elogiada por su creciente sofisticación, pero principalmente en términos de doomer. Si estás en el extremo apocalíptico del espectro, la revolución de la IA automatizará millones de trabajos, eliminará la barrera entre la realidad y el artificio y, finalmente, obligará a la humanidad al borde de la extinción. En el camino, tal vez tengamos mayordomos de robots, tal vez nos llenen de vainas embrionarias y se cosechen para obtener energía. Quién sabe.

Pero es fácil olvidar que la mayoría de la IA ahora mismo es terriblemente estúpido y solo es útil en dominios estrechos y de nicho para los que su software subyacente ha sido específicamente entrenado, como jugar un antiguo juego de mesa chino o traducir texto de un idioma a otro.

Pídale a su bot de reconocimiento estándar que haga algo nuevo, como analizar y etiquetar una fotografía utilizando solo su conocimiento adquirido, y obtendrá algunos resultados cómicamente absurdos. Esa es la diversión detrás de ImageNet Roulette, una ingeniosa herramienta web creada como parte de una exposición de arte en curso sobre la historia de los sistemas de reconocimiento de imágenes.

Según lo explicado por el artista e investigador Trevor Paglen, quien creó la exhibición Entrenando humanos con la investigadora de IA Kate Crawford, el objetivo no es emitir un juicio sobre la IA, sino comprometerse con su forma actual y su complicada historia académica y comercial, por muy grotesca que pueda ser.

"Cuando comenzamos a conceptualizar esta exposición hace más de dos años, queríamos contar una historia sobre la historia de las imágenes utilizadas para" reconocer "a los humanos en la visión por computadora y los sistemas de inteligencia artificial. No estábamos interesados ​​ni en la versión publicitaria y publicitaria de IA ni en las historias de futuros distópicos de robots ", dijo Crawford en el antiguo museo Fondazione Prada de Milán, donde se presenta Training Humans. “Queríamos involucrarnos con la materialidad de la IA y tomar en serio esas imágenes cotidianas como parte de una cultura visual maquínica en rápida evolución. Eso nos obligó a abrir las cajas negras y ver cómo funcionan actualmente estos "motores de ver".

Es una búsqueda digna y un proyecto fascinante, incluso si ImageNet Roulette representa el lado más tonto de la misma. Esto se debe principalmente a que ImageNet, un conjunto de datos de entrenamiento de renombre en el que han confiado los investigadores de IA durante la última década, generalmente es malo para reconocer a las personas. Se trata principalmente de un conjunto de reconocimiento de objetos, pero tiene una categoría para "Personas" que contiene miles de subcategorías, cada una valientemente tratando de ayudar al software a realizar la tarea aparentemente imposible de clasificar a un ser humano.

¿Y adivina qué? ImageNet Roulette es muy mala en eso.


¡Ni siquiera fumo! Pero por alguna razón, ImageNet Roulette cree que sí. También parece creer que estoy ubicado en un avión, aunque para su crédito, los diseños de oficinas abiertas son solo un poco menos sofocantes que los estrechos tubos de metal suspendidos a decenas de miles de pies en el aire.


ImageNet Roulette fue creada por el desarrollador Leif Ryge trabajando bajo Paglen, como una forma de permitir que el público interactúe con los conceptos abstractos de la exposición de arte sobre la naturaleza inescrutable de los sistemas de aprendizaje automático.

Aquí está la magia detrás de escena que lo hace funcionar:

ImageNet Roulette utiliza un marco de aprendizaje profundo de código abierto Caffe (producido en UC Berkeley) capacitado en las imágenes y etiquetas en las categorías de "persona" (que actualmente están "inactivas por mantenimiento"). Se eliminaron los nombres y categorías adecuados con menos de 100 imágenes.

Cuando un usuario carga una imagen, la aplicación primero ejecuta un detector de rostros para ubicar cualquier rostro. Si encuentra alguno, los envía al modelo Caffe para su clasificación. Luego, la aplicación devuelve las imágenes originales con un cuadro delimitador que muestra la cara detectada y la etiqueta que el clasificador ha asignado a la imagen. Si no se detectan caras, la aplicación envía la escena completa al modelo Caffe y devuelve una imagen con una etiqueta en la esquina superior izquierda.

Parte del proyecto también es resaltar las formas fundamentalmente defectuosas, y por lo tanto humanas, de que ImageNet clasifica a las personas de manera "problemática" y "ofensiva". (Un ejemplo de interés que aparece en Twitter es que algunos hombres suben fotos parece estar etiquetado al azar como "sospechoso de violación" por razones inexplicables.) Paglen dice que esto es crucial para uno de los temas que destaca el proyecto, que es la falibilidad de los sistemas de IA y la prevalencia del sesgo de aprendizaje automático como resultado de sus creadores humanos comprometidos:

ImageNet contiene una serie de categorías problemáticas, ofensivas y extrañas, todas extraídas de WordNet. Algunos usan terminología misógina o racista. Por lo tanto, los resultados que arroja ImageNet Roulette también se basarán en esas categorías. Eso es por diseño: queremos arrojar luz sobre lo que sucede cuando los sistemas técnicos reciben capacitación sobre datos de capacitación problemáticos. Las clasificaciones de IA de las personas rara vez se hacen visibles para las personas clasificadas. ImageNet Roulette ofrece una idea de ese proceso y muestra las formas en que las cosas pueden salir mal.

Aunque ImageNet Roulette es una distracción divertida, el mensaje subyacente de Entrenando humanos Es oscuro, pero vital.

"Entrenando humanos explora dos cuestiones fundamentales en particular: cómo se representan, interpretan y codifican los humanos a través de los conjuntos de datos de capacitación, y cómo los sistemas tecnológicos cosechan, etiquetan y usan este material ", se lee en la descripción de la exposición" A medida que las clasificaciones de los humanos por los sistemas de IA se vuelven más invasivas y complejas , sus prejuicios y políticas se hacen evidentes. Dentro de la visión por computadora y los sistemas de IA, las formas de medición fácilmente, pero subrepticiamente, se convierten en juicios morales ".

Erica Flores

Enamorada de la tecnología. Apasionada de la velocidad que la información puede adquirir en este mundo cambiante. Actualmente residiendo en Barcelona.

Recent Posts

Uber utilizará la eSIM de Valid para casos de uso de IoT

Uber está mejorando sus implementaciones de IoT en todo el mundo mediante la adopción de…

3 years ago

Matter Motor Works se asocia con Airtel para habilitar sus bicicletas AERA con soluciones IoT

Obras de motor de materia y Bharti Airtel, un proveedor de servicios de telecomunicaciones ha…

3 years ago

Escultura de Zelda Guardian rastrea a humanos y mascotas a través de una cámara

En The Legend of Zelda: Breath of the Wild, los guardianes son una forma primitiva…

3 years ago

Nos encanta este diminuto Wall-E controlado por radio

Muchos de nosotros nos enamoramos absolutamente de Wall-E, el personaje principal de una…

3 years ago

Serie Samsung Galaxy S24: fecha de lanzamiento, especificaciones, precio y todos los rumores hasta ahora

Dhruv Bhutani / Android AuthorityCada año, los fanáticos de los teléfonos inteligentes esperan con ansias…

3 years ago

Final Cut Pro para iPad: fecha de lanzamiento, características, compatibilidad, precio

Apple ha anunciado que Final Cut Pro finalmente llegará para el iPad. Tras años de…

3 years ago