Un nuevo estudio de Amnistía Internacional. y Element AI pone el número a un problema que muchas mujeres ya conocen: que Twitter es un pozo de hostigamiento y abuso. Realizado con la ayuda de 6,500 voluntarios, el estudio, anunciado por Amnistía Internacional como "el más grande en la historia" de abusos contra mujeres, utilizó un software de aprendizaje automático de Element AI. para analizar los tweets enviados a una muestra de 778 mujeres políticas y periodistas durante el 2017. Se encontró que el 7.1%, o 1.1 millones, de esos tweets fueron "problemáticos" o "abusivos", lo que Amnistía Internacional dijo que equivale a un tweet abusivo enviado cada 30 segundos.
En un sitio web interactivo que desglosa la metodología y los resultados del estudio, Amnistía Internacional dijo que muchas mujeres censuran lo que publican, limitan sus interacciones en Twitter o simplemente abandonan la plataforma por completo. "En un momento decisivo en el que mujeres de todo el mundo están utilizando su poder colectivo para amplificar sus voces a través de las plataformas de redes sociales, los el hecho de que no se apliquen de manera coherente y transparente sus propios estándares comunitarios para enfrentar la violencia y el abuso significa que las mujeres están siendo empujadas hacia atrás hacia una cultura de silencio ”, declaró la organización de defensa de los derechos humanos.
Amnistía Internacional, que ha estado investigando el abuso contra mujeres en Twitter durante los últimos dos años, inscribió a 6,500 voluntarios para lo que se conoce como la "Patrulla Troll" después de publicar otro estudio en marzo de 2018 que describió a Twitter como un lugar "tóxico" para mujer. Los voluntarios de la Patrulla de Troll, que provienen de 150 países y tienen edades comprendidas entre los 18 y los 70 años, recibieron capacitación sobre el hecho de constituir un tweet problemático o abusivo. Luego se les mostraron tweets anónimos que mencionaban a una de las 778 mujeres y se les preguntó si los tweets eran problemáticos o abusivos. Cada tweet fue mostrado a varios voluntarios. Además, Amnistía Internacional dijo que "tres expertos en violencia y abuso contra las mujeres" también clasificaron una muestra de 1,000 tweets para "garantizar que pudiéramos evaluar la calidad de los tweets etiquetados por nuestros voluntarios digitales".
El estudio definió "problemático" como tweets "que contienen contenido dañino u hostil, especialmente si se repite a un individuo en múltiples ocasiones, pero no necesariamente cumplen con el umbral de abuso", mientras que "abusivo" significa tweets "que violan las propias reglas de Twitter y incluir contenido que promueva la violencia contra las personas o amenazas contra ellas según su raza, etnia, origen nacional, orientación sexual, género, identidad de género, afiliación religiosa, edad, discapacidad o enfermedad grave ".
En total, los voluntarios analizaron 288,000 tweets enviados entre enero y diciembre de 2017 a las 778 mujeres estudiadas, que incluían políticos y periodistas de todo el espectro político del Reino Unido y Estados Unidos. Los políticos incluyeron miembros del Parlamento de los EE. UU. Y el Congreso de los EE. UU., Mientras que los periodistas representaron a un grupo diverso de publicaciones que incluyeron The Daily Mail, The New York Times, The Guardian, The Sun, gal-dem, Pink News y Breitbart.
Luego se procesó un subconjunto de los tweets etiquetados utilizando el software de aprendizaje automático de Element AI para extrapolar el análisis a un total de 14.5 millones de tweets que mencionaron a las 778 mujeres durante 2017. (Dado que los tweets no se recolectaron para el estudio hasta marzo de 2018, Amnistía Internacional señala que la escala de abuso fue probablemente incluso mayor porque algunos tweets abusivos pueden haber sido eliminados o hechos por cuentas que fueron suspendidas o deshabilitadas). La extrapolación de Element AI produjo el hallazgo de que el 7.1% de los tweets enviados a las mujeres fueron problemáticos o abusivos, lo que equivale a 1.1 millones de tweets 2017.
Las mujeres negras, asiáticas, latinx y de raza mixta tenían 34% más probabilidades de ser mencionadas en tweets problemáticos o abusivos que las mujeres blancas. Las mujeres negras en particular eran especialmente vulnerables: eran 84% más propensas que las mujeres blancas a ser mencionadas en tweets problemáticos o abusivos. Uno de cada 10 tweets que mencionan a mujeres negras en la muestra del estudio fue problemático o abusivo, en comparación con uno de cada 15 para mujeres blancas.
“Descubrimos que, aunque el abuso está dirigido a las mujeres en todo el espectro político, las mujeres de color eran mucho más propensas a ser afectadas, y las mujeres negras son un objetivo desproporcionadamente. El hecho de que Twitter no tome medidas contra este problema significa que está contribuyendo al silenciamiento de las voces que ya están marginadas ", dijo Milena Marin, asesora principal de Amnistía Internacional para la investigación táctica, en la declaración.
Al analizar los resultados por profesión, el estudio encontró que el 7% de los tweets que mencionaron a los 454 periodistas en el estudio fueron problemáticos o abusivos. Los 324 políticos encuestados apuntaron a una tasa similar, con el 7,12% de los tweets que los mencionaron problemáticos o abusivos.
Por supuesto, los hallazgos de una muestra de 778 periodistas y políticos en los EE. UU. Y los EE. UU. Son difíciles de extrapolar a otras profesiones, países o la población en general. Sin embargo, los hallazgos del estudio son importantes porque muchos políticos y periodistas necesitan usar las redes sociales para hacer su trabajo de manera efectiva. Las mujeres, y especialmente las mujeres de color, están subrepresentadas en ambas profesiones, y muchas se quedan en Twitter simplemente para hacer una declaración sobre la visibilidad, aunque esto signifique lidiar con el acoso y el abuso constante. Además, los cambios en la API de Twitter significan que muchas herramientas de terceros contra el acoso ya no funcionan, como señaló la periodista de tecnología Sarah Jeong en su propio perfil de Twitter, y la plataforma aún no ha creado herramientas que repliquen su funcionalidad.
Durante mucho tiempo utilicé el bloqueo para bloquear automáticamente las cuentas menores de 7 días y las cuentas con menos de 15 seguidores. Después de los cambios en la API de Twitter, esa opción ya no está disponible para mí.
– sarah jeong (@sarahjeong) 18 de diciembre de 2018
Un amigo me proporcionó una manera de silenciar automáticamente a las personas que tuitearon ciertas palabras de activación para mí. (Como, digamos, "gook".) Esto tampoco está disponible para mí debido a los cambios en la API.
– sarah jeong (@sarahjeong) 18 de diciembre de 2018
La otra investigación de Amnistía Internacional sobre el comportamiento abusivo hacia las mujeres en Twitter incluye una encuesta de mujeres en línea de 2017 en 8 países, y un análisis del abuso que enfrentan las mujeres miembros del Parlamento antes de la elección general de 2017 en el Reino Unido. La organización dijo que Trol Patrol no se trata de "vigilar a Twitter o de obligarlo a eliminar contenido". En cambio, la organización quiere que la plataforma sea más transparente, especialmente sobre cómo los algoritmos de aprendizaje automático que utiliza para detectar el abuso.
Debido a que las plataformas de redes sociales más grandes ahora dependen del aprendizaje automático para escalar su monitoreo anti-abuso, Element AI también usó los datos del estudio para desarrollar un modelo de aprendizaje automático que detecta automáticamente los tweets abusivos. Durante las próximas tres semanas, el modelo estará disponible para probarlo en el sitio web de Amnistía Internacional con el fin de "demostrar el potencial y las limitaciones actuales de la tecnología de inteligencia artificial". Estas limitaciones significan que las plataformas de redes sociales deben afinar sus algoritmos muy cuidadosamente para poder Detectar contenido abusivo sin marcar también el habla legítima.
"Estas concesiones son juicios basados en valores con serias implicaciones para la libertad de expresión y otros derechos humanos en línea", dijo la organización, y agregó que "tal como está, la automatización puede desempeñar un papel útil en la evaluación de tendencias o en marcar contenido para revisión humana, pero debería, en el mejor de los casos, usarse para ayudar a moderadores capacitados, y ciertamente no debería reemplazarlos ".
TechCrunch ha contactado con Twitter para hacer comentarios.