Poco después del tiroteo de la sinagoga en Pittsburgh, noté que la palabra "judíos" estaba en tendencia en Twitter. Como investigador y educador en redes sociales, me preocupé de que la violencia se propagara en línea, como sucedió en el pasado.
La actividad de los presuntos tiradores de la sinagoga en el sitio de redes sociales de Gab ha llamado la atención sobre el papel de ese sitio como una alternativa llena de odio a las opciones más comunes como Facebook y Twitter. Esos están entre las plataformas de redes sociales que han prometido combatir el discurso de odio y el abuso en línea en sus sitios.
Sin embargo, a medida que exploraba la actividad en línea después de los disparos, rápidamente me di cuenta de que los problemas no se encuentran solo en sitios como Gab. Más bien, el discurso del odio todavía es fácil de encontrar en los principales sitios de redes sociales, incluido Twitter. También identifiqué algunos pasos adicionales que la compañía podría tomar.
Esperaba que aparecieran nuevas amenazas en línea alrededor del tiroteo en Pittsburgh, y había señales de que estaba ocurriendo. En un reciente ataque antisemita, el líder de la Nación del Islam, Louis Farrakhan, utilizó la palabra "termita" para describir a los judíos. Busqué este término, sabiendo que los racistas probablemente usarían el nuevo insulto como una palabra clave para evitar la detección al expresar el antisemitismo.
Twitter no había suspendido la cuenta de Farrakhan a raíz de otra de sus declaraciones antisemitas, y la función de búsqueda de Twitter sugirió automáticamente que podría estar buscando la frase "termitas devoran balas". Eso convierte el cuadro de búsqueda de Twitter en un cartel de odio.
Sin embargo, la compañía había ajustado aparentemente algunos de sus algoritmos internos, porque en los resultados de mi búsqueda no aparecían tweets con usos antisemitas de la palabra "termita".
A medida que continué mi búsqueda de discursos de odio y llamé a la violencia contra los judíos, encontré aún más evidencia perturbadora de deficiencias en el sistema de moderación de contenido de Twitter.
A raíz de la elección de los EE. UU. De 2016 y del descubrimiento de que Twitter se estaba utilizando para influir en la elección, la compañía dijo que estaba invirtiendo en aprendizaje automático para "detectar y mitigar el efecto en los usuarios de actividades de cuenta falsas, coordinadas y automatizadas. ”
Según lo que encontré, estos sistemas no han identificado ni siquiera amenazas violentas y discursos de odio muy simples, claros y directos que hayan estado en su sitio durante años.
Cuando informé sobre un tweet publicado en 2014 que abogaba por matar a personas judías "por diversión", Twitter lo rechazó el mismo día, pero su aviso automatizado estándar de Twitter no daba ninguna explicación de por qué no se había tocado durante más de cuatro años.
https://twitter.com/b4ng_yus/status/490837698223955969?ref_src=twsrc%5Etfw” target=”_blank” rel=”nofollow noopener
Cuando revisé los odiosos tweets que no habían sido capturados después de todos esos años, noté que muchos no contenían texto, el tweet era solo una imagen.
Sin texto, los tweets son más difíciles de encontrar para los usuarios y los propios algoritmos de identificación de odio de Twitter. Pero los usuarios que buscan específicamente un discurso de odio en Twitter pueden desplazarse a través de la actividad de las cuentas que encuentran, viendo mensajes aún más odiosos.
Twitter parece estar al tanto de este problema: los usuarios que reportan un tweet deben revisar algunos otros tweets de la misma cuenta y enviarlos al mismo tiempo. Esto termina sometiendo un poco más de contenido para revisar, pero aún deja espacio para que algunos no sean detectados.
Cuando encontré tweets que creí que violaban las políticas de Twitter, los informé. La mayoría de ellos fueron removidos rápidamente, incluso dentro de una hora. Pero algunos puestos obviamente ofensivos tardaron varios días en llegar.
Todavía hay algunos tweets basados en texto que no se han eliminado, a pesar de violar claramente las políticas de Twitter. Eso demuestra que el proceso de revisión de contenido de la compañía no es consistente.
Puede parecer que Twitter está mejorando la eliminación de contenido dañino y que está eliminando muchos contenidos y memes y suspendiendo cuentas, pero gran parte de esa actividad no está relacionada con el discurso del odio.
Más bien, gran parte de la atención de Twitter se ha centrado en lo que la empresa denomina "manipulación coordinada", como bots y redes de perfiles falsos administrados por unidades de propaganda del gobierno.
En mi opinión, la compañía podría dar un paso significativo para solicitar la ayuda de miembros del público, así como investigadores y expertos como mis colegas y yo, para identificar contenido odioso.
Es común que las compañías de tecnología, incluido Twitter, ofrezcan pagos a las personas que reportan vulnerabilidades de seguridad en su software.
Sin embargo, todo lo que la compañía hace por los usuarios que informan de contenido problemático es enviar un mensaje generado automáticamente diciendo "gracias". La disparidad en la forma en que Twitter trata los problemas de código y los informes de contenido transmite un mensaje de que la compañía prioriza su tecnología sobre su comunidad.
En cambio, Twitter podría pagar a las personas por informar sobre contenido que viola las pautas de su comunidad, ofreciendo recompensas financieras por eliminar las vulnerabilidades sociales en su sistema, como si esos usuarios lo estuvieran ayudando a identificar problemas de software o hardware.
Un ejecutivo de Facebook expresó su preocupación de que esto solución potencial podría ser contraproducente y generar más odio en línea, pero creo que el programa de recompensa podría estructurarse y diseñarse de manera que se evite ese problema.
Hay otros problemas con Twitter que van más allá de lo que se publica directamente en su propio sitio. Las personas que publican discursos de odio a menudo aprovechan una característica clave de Twitter: la capacidad de los tweets para incluir enlaces a otro contenido de Internet.
Esa función es fundamental para la forma en que las personas usan Twitter, compartiendo contenido de interés mutuo en toda la web. Pero también es un método para distribuir el discurso del odio.
Por ejemplo, un tweet puede parecer totalmente inocente, diciendo "Esto es divertido" y proporcionando un enlace. Pero el enlace, al contenido no publicado en los servidores de Twitter, muestra un mensaje lleno de odio.
Además, el sistema de moderación de contenido de Twitter solo permite a los usuarios informar tweets odiosos y amenazadores, pero no las cuentas cuyos perfiles contienen mensajes similares.
Algunas de estas cuentas, incluidas las que tienen fotos de perfil de Adolf Hitler, y nombres y Gorjeo manijas ese defensor que quema a los judíos, ni siquiera publiques tweets ni sigas a otros usuarios de Twitter.
A veces, es posible que simplemente se encuentren cuando las personas <span id = "urn: enhancement-edc701ee-20cd-c32d-f1d0-86202a01d804" class = "textannotation "> busca palabras en sus perfiles, convirtiendo nuevamente el cuadro de búsqueda de Twitter en un sistema de entrega.
<span id = "urna: enhancement-edc701ee-20cd-c32d-f1d0-86202a01d804" class = "textannotation "> Estas cuentas también pueden, aunque es imposible saberlo, ser utilizadas para Comunicarse con otros en Twitter vía mensaje directo., utilizando la plataforma como canal de comunicación encubierto.
Sin tweets u otra actividad pública, es imposible para los usuarios reportar estas cuentas a través del sistema de informes de contenido estándar. Pero son igual de ofensivos y dañinos, y deben ser evaluados y moderados como cualquier otro contenido en el sitio.
A medida que las personas que buscan propagar el odio se vuelven cada vez más sofisticadas, las pautas de la comunidad de Twitter, pero más importante aún, sus esfuerzos de cumplimiento de la ley, necesitan ponerse al día y mantenerse al día.
Si los sitios de redes sociales desean evitar convertirse, o permanecer, en vectores de guerra de información y plagas de ideas odiosas y memes, deben intensificarse mucho más activamente y, al menos, tener sus miles de moderadores de contenido a tiempo completo. Los empleados buscan como lo hizo un profesor en el transcurso de un fin de semana.
Este artículo se publicó en The Conversation por Jennifer Grygiel, profesora asistente de comunicaciones de la Universidad de Syracuse, bajo una licencia de Creative Commons. Lea el artículo original.
Uber está mejorando sus implementaciones de IoT en todo el mundo mediante la adopción de…
Obras de motor de materia y Bharti Airtel, un proveedor de servicios de telecomunicaciones ha…
En The Legend of Zelda: Breath of the Wild, los guardianes son una forma primitiva…
Muchos de nosotros nos enamoramos absolutamente de Wall-E, el personaje principal de una…
Dhruv Bhutani / Android AuthorityCada año, los fanáticos de los teléfonos inteligentes esperan con ansias…
Apple ha anunciado que Final Cut Pro finalmente llegará para el iPad. Tras años de…