Fri. Jan 2nd, 2026

La visión artificial ha mejorado enormemente en los últimos años, pero aún es capaz de cometer errores graves. Tanto es así que hay todo un campo de investigación dedicado al estudio de imágenes que son identificadas erróneamente por la IA, conocidas como "imágenes adversas". Piense en ellas como ilusiones ópticas para las computadoras. Mientras ves un gato arriba de un árbol, la IA ve una ardilla.

Hay una gran necesidad de estudiar estas imágenes. Al poner los sistemas de visión artificial en el corazón de la nueva tecnología, como las cámaras de seguridad AI y los autos que conducen por sí mismos, confiamos en que las computadoras vean el mundo de la misma manera que nosotros. Las imágenes de advertencia demuestran que no lo hacen.

Pero si bien en este campo se presta mucha atención a las imágenes que han sido diseñadas específicamente para engañar a la IA (como esta tortuga impresa en 3D que los algoritmos de Google cometen para un arma), este tipo de imágenes confusas también ocurren de forma natural. Esta categoría de imágenes es, en todo caso, Más preocupante, ya que muestra que los sistemas de visión pueden cometer errores no forzados.

Para demostrar esto, un grupo de investigadores de la UC Berkeley, la Universidad de Washington y la Universidad de Chicago, crearon un conjunto de datos de unos 7,500 "ejemplos adversos naturales". Ellos probaron varios sistemas de visión artificial en estos datos, y encontraron que su precisión se redujo hasta en un 90 por ciento, con el software solo capaz de identificar solo el dos o tres por ciento de las imágenes en algunos casos.

Puedes ver cómo se ven estos "ejemplos adversos naturales" en la galería a continuación:

En un documento adjunto, los investigadores dicen que los datos ayudarán a formar sistemas de visión más robustos. Explican que las imágenes explotan "fallas profundas" que se derivan de la "excesiva dependencia del software sobre el color, la textura y las señales de fondo" para identificar lo que ve.

En las siguientes imágenes, por ejemplo, AI confunde las imágenes de la izquierda con un clavo, probablemente debido a los fondos de madera. En las imágenes de la derecha, se centran en el alimentador de colibríes, pero se saltan el hecho de que no hay colibríes reales presentes.


http://www.theverge.com/ "data-upload-width =" 2152 "src =" https://cdn.vox-cdn.com/thumbor/-Yhok9ZT0wZcqifbqtT7GG7q72A=/0x0:2152x614/1200x0/filters:focal (0x0: 2152x614): no_upscale () / cdn.vox-cdn.com/uploads/chorus_asset/file/18320935/Screen_Shot_2019_07_19_at_12.07.56_PM.png

Y en las cuatro imágenes de libélulas de abajo, AI se enfoca en los colores y texturas, viendo, de izquierda a derecha, una mofeta, un plátano, un león marino y un guante. En cada caso se puede ver. por qué se cometió el error, pero eso no lo hace menos obvio.


http://www.theverge.com/ "data-upload-width =" 2146 "src =" https://cdn.vox-cdn.com/thumbor/giCPVEPJynSZ_w2F9jnKeXm7GBw=/0x0:2146x584/1200x0/filters:focal ( 0x0: 2146x584): no_upscale () / cdn.vox-cdn.com/uploads/chorus_asset/file/18320963/Screen_Shot_2019_07_19_at_12.44.41_PM.png

Que los sistemas de inteligencia artificial cometan este tipo de errores no es una noticia. Los investigadores han advertido durante años que los sistemas de visión creados mediante el aprendizaje profundo (un sabor del aprendizaje automático que es responsable de muchos de los avances recientes en la IA) son "superficiales" y "frágiles", lo que significa que no entienden el mundo con el mismo matiz Y la flexibilidad como humano.

Estos sistemas están capacitados en miles de ejemplos de imágenes para aprender cómo se ven las cosas, pero a menudo no sabemos qué elementos exactos de las imágenes utiliza AI para emitir sus juicios.

Algunas investigaciones sugieren que, en lugar de ver las imágenes de forma integral, teniendo en cuenta la forma y el contenido en general, los algoritmos se centran en texturas y detalles específicos. Los hallazgos presentados en este conjunto de datos parecen apoyar esta interpretación, cuando, por ejemplo, las imágenes que muestran sombras claras en una superficie iluminada se identifican erróneamente como relojes de sol. A la IA le falta esencialmente la madera para los árboles.

Pero, ¿significa esto que estos sistemas de visión artificial están irremediablemente rotos? De ningún modo. A menudo, los errores que se cometen son bastante triviales, como identificar una cubierta de drenaje como un pozo de acceso o confundir una camioneta con una limusina.

Y mientras los investigadores dicen que estos "ejemplos adversos naturales" engañarán a una amplia gama de sistemas de visión, eso no significa que los engañarán a todos. Muchos sistemas de visión artificial son increíblemente especializados, como los que se usan para identificar enfermedades en las exploraciones médicas, por ejemplo. Y mientras estos tienen sus propios defectos, su incapacidad para entender el mundo y un ser humano no les impide detectar un tumor canceroso.

La visión artificial puede ser rápida y sucia a veces, pero a menudo da resultados. Una investigación como esta nos muestra los puntos ciegos que debemos completar a continuación.

By Erica Flores

Enamorada de la tecnología. Apasionada de la velocidad que la información puede adquirir en este mundo cambiante. Actualmente residiendo en Barcelona.