Mon. Jan 12th, 2026

2018 seguramente ha sido un mal año para facebook, En cuanto a su imagen pública. Por supuesto, Monetariamente sigue siendo una de las principales redes sociales. Continuará en esa trayectoria gracias a su gran cantidad de usuarios. Sin embargo, parece que a Facebook no le está yendo demasiado bien cuando se trata de moderar el contenido cuestionable en su plataforma para creer en los últimos informes.

Los New York Times tiene acceso a más de 1.400 páginas del reglamento de Facebook filtrado que es utilizado por los moderadores para monitorear el contenido reportado en Facebook. Una lectura rápida del informe revela que el equipo de más de 7,500 moderadores de Facebook no tiene tiempo suficiente para reflexionar sobre publicaciones que podrían ser políticamente devastadoras, tienen poca comprensión de los matices detrás del lenguaje y hay una falta de moderadores de contenido en los idiomas nativos de todo el mundo. .

Imagen representativa. Reuters

En muchos casos, los moderadores toman decisiones que pueden considerarse demasiado sesgadas. Estas decisiones se toman y un conjunto de ingenieros y abogados agregan reglas al libro de reglas en Menlo Park, quienes no necesariamente tienen una comprensión correcta de las situaciones sobre las que toman decisiones, como asuntos políticos en India, Myanmar o Pakistán. .

Estas reglas se envían luego a empresas de terceros que contratan moderadores. La mayoría de los moderadores son contratados en centros de llamadas u otros grados de baja remuneración. Se espera que entiendan las reglas. La moderación de contenido debe garantizar que se adhiere a reglas simples de sí / no. Si no, el contenido se quita. Esto, según fuentes que han hablado. NYT, A veces, Facebook le da un tremendo poder para actuar como un guardián de contenido. Incluso los Emojis han sido categorizados para identificar indicaciones tales como condena, acoso escolar, texto sexualizado, etc.

Piénsalo. Primero debe memorizar todas las reglas que podrían violar los estándares de la comunidad de Facebook, reglas que cambian o se actualizan periódicamente. Luego, estos moderadores tienen alrededor de 8 a 10 segundos por publicación para recordar esas reglas y actuar en una parte del contenido. Es un ejercicio de frustración según los moderadores.

Las reglas de Facebook de los documentos filtrados. Editorial: New York Times

Solo una de las muchas reglas de Facebook de los documentos filtrados. Editorial: New York Times

En el contexto de la India, una diapositiva de Facebook le dice a los moderadores que cualquier publicación que degrade una religión entera viole la ley de la India y debe marcarse para que se elimine. Aunque la realidad es diferente. La ley india prohíbe la blasfemia en ciertas condiciones, como cuando el orador intenta incitar a la violencia. Según Facebook, es ser muy cauteloso en tales asuntos. Pero es, en cierto modo, la regulación de la libertad de expresión, algo que está mucho más allá de su mandato.

Facebook tiene una enorme base de usuarios de 2 bn más. Tener alrededor de 7.500 moderadores de contenido para una base de usuarios tan grande es en sí mismo muy poco. Claro, escuchamos a Facebook hablar sobre el uso de Inteligencia Artificial. para escalar estos esfuerzos. Pero todos sabemos lo inútil que es la IA. entendiendo los matices, y cómo es fácil introducir sesgos dentro de los algoritmos AI.

Con las elecciones generales que se avecinan en la India, el tema de la moderación del contenido levantará su cabeza fea. Si Facebook está pensando que puede evitar el abuso de su plataforma, al redactar las reglas establecidas por las personas que se sientan en Menlo Park, entonces no tiene más que más controversias en su camino.

2018 ha sido un año lleno de acontecimientos y aquí está nuestra lista completa de Cuentos del año ender.

By Maria Montero

Me apasiona la fotografía y la tecnología que nos permite hacer todo lo que siempre soñamos. Soñadora y luchadora. Actualmente residiendo en Madrid.