Mon. Jan 12th, 2026

Adobe ha entrenado a una IA para detectar cuándo se han hecho photoshop en las imágenes, lo que podría ayudar en la lucha contra las fallas profundas.

El gigante del software se asoció con investigadores de la Universidad de California en la IA. Se capacitó a una red neuronal convolucional (CNN) para detectar los cambios realizados en las imágenes mediante la función Face-Aware Liquify de Photoshop.

Face-Aware Liquify es una función diseñada para ajustar y exagerar los rasgos faciales. Photoshop detecta automáticamente las características faciales para proporcionar una manera fácil de ajustarlas según sea necesario.

Aquí hay un ejemplo de Face-Aware Liquify en acción:

© Adobe

Las características como Face-Aware Liquify son relativamente inofensivas cuando se usan para propósitos como hacer que alguien se vea más feliz en una foto o anuncio. Sin embargo, tales características también pueden ser explotadas, por ejemplo, hacer que un oponente político parezca expresar emociones como la ira o el disgusto en un intento por influir en la opinión de los votantes.

"Esta nueva investigación es parte de un esfuerzo más amplio en Adobe para detectar mejor las manipulaciones de imagen, video, audio y documentos", escribió Adobe en una publicación de blog el viernes.

La semana pasada, AI News informó que un video profundo del CEO de Facebook, Mark Zuckerberg, se había vuelto viral. Zuckerberg pareció decir: "Imagina esto por un segundo: un hombre, con el control total de miles de millones de datos robados de personas, todos sus secretos, sus vidas, sus futuros".

El objetivo de Deepfake no fue malicioso, sino parte de una instalación de arte encargada por Canny AI diseñada para resaltar los peligros de tales videos falsos. Otros videos en exhibición incluyeron al presidente Trump y Kim Kardashian, individuos con gran influencia.

Un mes antes del lanzamiento de Zuckerberg deepfake, se difundió en Facebook un video de la presidenta de la Cámara de Representantes Nancy Pelosi, que la describió como intoxicada. Facebook fue criticado por negarse a eliminar el video.

Pelosi más tarde le dijo al KQED de California: "Creo que han demostrado, al no quitar algo que saben que es falso, que fueron activadores voluntarios de la interferencia rusa en nuestra elección".

En otro ejemplo de los crecientes peligros de las fallas profundas, un espía fue capturado usando una foto de perfil generada por AI en LinkedIn para conectarse con objetivos desconocidos.

Los seres humanos están muy programados para creer lo que ven con sus ojos, eso es lo que hace que las profundidades sean tan peligrosas. Las IA como la creada por Adobe y el equipo de la Universidad de California serán vitales para ayudar a contrarrestar la amenaza profunda.

¿Interesado en escuchar a los líderes de la industria discutir temas como este y sus casos de uso? Asista a los eventos coubicados de AI y Big Data Expo con los próximos espectáculos en Silicon Valley, Londres y Amsterdam para obtener más información. Co-localizado con la IoT Tech Expo, Blockchain Expo, y Cyber ​​Security & Cloud Expo.






By Erica Flores

Enamorada de la tecnología. Apasionada de la velocidad que la información puede adquirir en este mundo cambiante. Actualmente residiendo en Barcelona.