Dos graduados recrearon y lanzaron un generador de texto falso similar al de OpenAI que la startup fundada por Elon Musk consideró demasiado peligrosa para hacer pública.
A menos que haya estado viviendo debajo de una roca, sabrá que el mundo ya tiene un problema de noticias falsas. En el pasado, al menos las noticias falsas tenían que ser escritas por una persona real para que fueran convincentes.
OpenAI creó una IA que podría generar automáticamente historias falsas. Combine noticias falsas, con objetivos similares a Cambridge Analytica y la naturaleza viral general de las redes sociales, y es fácil entender por qué OpenAI decidió no hacer público su trabajo.
El jueves, dos graduados recientes de maestría decidieron lanzar lo que dicen que es una recreación del software de OpenAI de todos modos.
Aaron Gokaslan, de 23 años, y Vanya Cohen, de 24, creen que su trabajo aún no es perjudicial para la sociedad. Muchos no estarían de acuerdo, pero su deseo de mostrar al mundo lo que es posible, sin ser una gran empresa sin grandes cantidades de fondos y recursos, es admirable.
"Esto permite que todos tengan una conversación importante sobre seguridad, y que los investigadores ayuden a protegerse contra futuros abusos potenciales", dijo Cohen a WIRED. "Recibí decenas de mensajes, y la mayoría de ellos han sido como," camino a seguir ".
Eso no quiere decir que su trabajo sea fácil ni particularmente barato. Gokaslan y Cohen usaron alrededor de $ 50,000 en computación en la nube de Google. Sin embargo, los costos de computación en la nube son cada vez más rentables y aumentan en potencia cada año.
OpenAI continúa manteniendo su postura de que tal trabajo es mejor no estar en el dominio público hasta que se puedan establecer más salvaguardas contra las noticias falsas.
Las redes sociales han sido presionadas por los gobiernos, particularmente en Occidente, para hacer más para contrarrestar las noticias falsas y la desinformación. Las infames "granjas troll" de Rusia se citan a menudo como utilizadas para crear desinformación e influir en los asuntos mundiales.
Facebook busca etiquetar posibles noticias falsas utilizando sitios de verificación de hechos como Snopes, además de informes de usuarios.
El martes pasado, OpenAI publicó un informe que decía que estaba al tanto de otros cinco grupos que habían replicado con éxito su propio software, pero todos tomaron la decisión de no lanzarlo.
Gokaslan y Cohen están en conversaciones con OpenAI sobre su trabajo y las posibles implicaciones sociales.
¿Interesado en escuchar a líderes de la industria discutir temas como este? Asista a la 5G Expo, IoT Tech Expo, Blockchain Expo, AI & Big Data Expo y Cyber Security & Cloud Expo World Series con eventos próximos en Silicon Valley, Londres y Amsterdam.