Parece que cada pocos días hay otro ejemplo de un fake profundo y convincente que se vuelve viral u otro software gratuito y fácil de usar (algunos incluso para dispositivos móviles) que puede generar video o audio convincente diseñado para engañar a alguien para que crea una pieza. de artificio virtual es real. Pero de acuerdo a El periodico de Wall Street, pronto puede haber serias ramificaciones financieras y legales para la proliferación de la tecnología deepfake.
La publicación informó la semana pasada que el director ejecutivo de una compañía de energía del Reino Unido fue engañado para transferir € 200,000 (o alrededor de $ 220,000 USD) a un proveedor húngaro porque creía que su jefe le estaba ordenando que lo hiciera. Pero la compañía de seguros de la compañía de energía, Euler Hermes Group SA, dijo al WSJ que un asaltante estafador equipado con inteligencia artificial estaba usando un software falso para imitar la voz del ejecutivo y exigirle a su subordinado que le pagara en una hora.
"El software fue capaz de imitar la voz, y no solo la voz: la tonalidad, la puntuación, el acento alemán", dijo más tarde un portavoz de Euler Hermes. The Washington Post. La llamada telefónica coincidió con un correo electrónico, y el CEO de la empresa de energía lo aceptó. El dinero ahora se ha ido, tras haber sido trasladado a través de cuentas en Hungría y México y dispersado por todo el mundo, el Enviar informes.
Más tarde, después de que se hizo una segunda solicitud de los ladrones, el CEO de la empresa de energía llamó a su jefe real, solo para encontrarse manejando llamadas tanto de la versión falsa como de la versión real del hombre simultáneamente, lo que alertó al CEO sobre el robo en curso. Euler Hermes declinó nombrar la empresa energética o su empresa matriz alemana.
Esta puede no ser la primera vez que esto ha sucedido. De acuerdo con la Enviar, la firma de ciberseguridad Symantec dice que ha encontrado al menos tres casos de fraude de voz falso para engañar a las compañías para que envíen dinero a una cuenta fraudulenta. Symantec dijo el cargo que al menos uno de los casos, que parece ser distinto del que Euler Hermes ha confirmado, resultó en pérdidas de millones de dólares.
La situación destaca la naturaleza tensa de la investigación de IA, especialmente en torno a la creación artificial de video y audio. Si bien ninguna de las grandes empresas de Silicon Valley con grandes y capaces instituciones de investigación de inteligencia artificial está desarrollando abiertamente software de video falso, algunas están trabajando diligentemente en el ámbito del audio.
El controvertido servicio dúplex de Google utiliza inteligencia artificial para imitar la voz de un ser humano real para que pueda hacer llamadas telefónicas en nombre de un usuario. Varias startups más pequeñas, muchas de las cuales se encuentran en China, ofrecen servicios similares de forma gratuita en teléfonos inteligentes, a veces bajo términos cuestionables de privacidad y recopilación de datos. Mientras tanto, los investigadores de empresas tecnológicas y académicas están tratando de desarrollar software de detección de falsificación profunda. Otros investigadores están desentrañando hasta qué punto se puede generar y proponer una falsificación profunda convincente utilizando cantidades aún más pequeñas de datos.
En otras palabras, los deepfakes están aquí y pueden ser peligrosos. Solo necesitaremos mejores herramientas para separar lo real de lo falso.