Varios expertos han expresado sus opiniones sobre las amenazas que plantea la inteligencia artificial, y el contenido falso falso es el mayor peligro actual.
Los expertos, que hablaron el martes en el Foro Ejecutivo de Seguridad Cibernética Pro WSJ en Nueva York, creen que el contenido generado por IA es una preocupación urgente para nuestras sociedades.
Camille François, directora de innovación de la firma de análisis de redes sociales Graphika, dice que los artículos falsos representan el mayor peligro.
Ya hemos visto lo que pueden hacer las "noticias falsas" y las campañas de desinformación generadas por el hombre, por lo que no será una gran sorpresa para muchos que involucrar a la IA en ese proceso es una amenaza principal.
François destaca que los artículos falsos y las campañas de desinformación de hoy dependen de mucho trabajo manual para crear y difundir un mensaje falso.
"Cuando nos fijamos en las campañas de desinformación, la cantidad de trabajo manual que se necesita para crear sitios web falsos y blogs falsos es gigantesca", dijo François.
"Si simplemente puede automatizar textos creíbles y atractivos, entonces realmente está inundando Internet de basura de una manera muy automatizada y escalable. De modo que estoy bastante preocupado ".
En febrero, OpenAI presentó su herramienta GPT-2 que genera texto falso convincente. La IA fue entrenada en 40 gigabytes de texto que abarca ocho millones de sitios web.
OpenAI decidió no lanzar públicamente GPT-2 por temor al daño que podría causar. Sin embargo, en agosto, dos graduados decidieron recrear el generador de texto de OpenAI.
Los graduados dijeron que no creen que su trabajo actualmente represente un riesgo para la sociedad y lo publicaron para mostrarle al mundo lo que era posible sin ser una empresa o gobierno con grandes cantidades de recursos.
"Esto permite que todos tengan una conversación importante sobre seguridad y que los investigadores ayuden a protegerse contra futuros abusos potenciales", dijo Vanya Cohen, una de las graduadas, a Wired.
Hablando en el mismo panel que François en el evento WSJ, Celeste Fralick, científica de datos en jefe e ingeniera principal en McAfee, recomendó que las compañías se asocien con firmas especializadas en detectar falsificaciones profundas.
Entre las amenazas de ciberseguridad más aterradoras relacionadas con la inteligencia artificial están los "ataques adversos de aprendizaje automático" mediante los cuales un pirata informático encuentra y explota una vulnerabilidad en un sistema de inteligencia artificial.
Fralick ofrece el ejemplo de un experimento realizado por Dawn Song, profesor de la Universidad de California, Berkeley, en el que se engañó a un automóvil sin conductor al creer que una señal de alto era una señal de límite de velocidad de 45 MPH con solo usar calcomanías.
Según Fralick, McAfee realizó experimentos similares y descubrió más vulnerabilidades. En uno, una señal de límite de velocidad de 35 MPH se modificó una vez más para engañar a la IA de un automóvil sin conductor.
"Extendimos la parte media de los tres, por lo que el automóvil no lo reconoció como 35; lo reconoció como 85 ", dijo.
Ambos panelistas creen que toda la fuerza laboral debe ser educada sobre las amenazas que plantea la IA, además de emplear estrategias para contrarrestar los ataques.
Hay "una gran urgencia para asegurarse de que las personas tengan conocimientos básicos de inteligencia artificial", concluye François.
¿Interesado en escuchar a líderes de la industria discutir temas como este? Asista a la 5G Expo, IoT Tech Expo, Blockchain Expo, AI & Big Data Expo y Cyber Security & Cloud Expo World Series con eventos próximos en Silicon Valley, Londres y Amsterdam.