Categories: NoticiasTecnología

Publicaciones en Cachemira, deidades, Tricolor: Facebook marca el contenido "localmente ilegal"

Facebook no respondió ninguna de las preguntas formuladas por The TecNoticias sobre estas pautas específicas de la India y no dijo cuántos países tienen pautas similares adaptadas localmente. (Imagen: Bloomberg)

Las publicaciones sobre Azad Kashmir, esas deidades difamantes y las representaciones de Indian Tricolor en cualquier prenda debajo de la cintura, son algunos de los 20 marcadores "localmente ilegales" que Facebook tiene para el contenido de la India, según los documentos internos obtenidos por The TecNoticias.

Los revisores de contenido de Facebook en todo el mundo analizan de forma rutinaria publicaciones que son informadas por los usuarios o elegidas por el sistema algorítmico de la empresa. Estos 15,000 trabajadores contratados a tiempo completo deciden si dejar una publicación en la plataforma, eliminarla porque no sigue la política global de Facebook, o etiquetarla y escalarla al siguiente nivel de "equipos de política de contenido". Para la India, estos marcadores "localmente ilegales" se utilizan para marcar publicaciones para su posterior revisión, sin el conocimiento de los usuarios o cualquier comentario de las agencias locales de aplicación de la ley.

Si bien la compañía insiste en que no bloquea de forma proactiva el contenido "localmente ilegal" para los espectadores de países específicos, lo que se conoce como contenido de bloqueo de IP, a menos que su equipo legal considere que la solicitud de una agencia local es "válida", estas pautas no reportadas específicas de India muestran cómo La compañía aún dirige a sus moderadores a marcar dicho contenido para una revisión adicional.

Por ejemplo, la compañía ha declarado varias veces, públicamente y en reuniones con la prensa, que su política global no considera el discurso de ataque a una religión o creencia como un discurso de odio incluso en la India. Sin embargo, los nuevos hallazgos muestran cómo la compañía aún realiza un seguimiento proactivo de dicho contenido en la India.

Una de las diapositivas del documento de Facebook pregunta: “¿Qué es el contenido localmente ilegal?” La siguiente diapositiva muestra un diagrama con tres frases: “El contenido no viola la política de Facebook”, “Respetar las leyes locales cuando el gobierno busca activamente la aplicación”, y "Facebook corre el riesgo de ser bloqueado en un país, o es un riesgo legal".

Leer: Informe: Contrariamente a la postura, Facebook señala los mensajes contra una religión

Facebook no respondió ninguna de las preguntas formuladas por The TecNoticias sobre estas pautas específicas de la India y no dijo cuántos países tienen pautas similares adaptadas localmente.

En la sección "Pautas operativas", el documento brinda ejemplos moderadores de contenido a la bandera: mapas de Kashmir y Aksai Chain, publicaciones que comparan a las deidades de manera divisoria o que representan a Muhammad, e imágenes que reemplazan la rueda del Tricolor con Gandhi.

Debajo de la sección "frontera nacional", los mensajes que "apoyan" a un estado separado de Cachemira, la reclamación de Pakistán a Cachemira y Saichen, la reclamación de China a Aksai Chin, Arunachal Pradesh, Assam, Nagaland o Tripura, deben ser marcados.

Los moderadores deben buscar términos como: "Azad Kashmir, Free Kashmir, Kashmir pertenece a Pakistán … Busque mapas que invadan territorios, personas que protestan, etc.".

Al menos tres diapositivas en la sección sobre "extremismo religioso" repiten la frase "el humor no está permitido".

Continúa diciendo que las imágenes de Mohammad pueden violar la Sección 295 del IPC, que prohíbe los sentimientos religiosos indignantes al insultar las creencias religiosas. "Lo legal es más reacio a los riesgos cuando se trata de litigios sobre imágenes religiosas … Si hay una imagen que viola, pero la leyenda o el contexto condenan claramente esta difamación, dicha imagen aún puede considerarse ofensiva y puede ser bloqueada por IP GEO", lee Una de las pautas.

La categoría de religión destaca “Difamación de las deidades”, “Comentarios negativos de imágenes burlonas sobre dioses y profetas religiosos”, “Comparación de las deidades” y “Llamando a nuevos estados basados ​​en la comunidad religiosa” como una de las banderas rojas que los moderadores deben observar. en los mensajes.

Leer: Los gigantes de las redes sociales planean rechazar las nuevas regulaciones de la India

La tercera y última categoría de símbolos nacionales incluye quemar, estampar y escribir en la bandera o representar solo una parte de la bandera.

Los documentos que revelan la moderación del contenido de Facebook llegan poco después de las enmiendas recientemente publicadas a la Ley de TI, una de las principales leyes que rigen el contenido en línea, lo que supondría una mayor responsabilidad para que las empresas eliminen de forma proactiva el contenido ilegal en sus plataformas.

Los informes de transparencia de Facebook muestran cómo las solicitudes de eliminación de contenido de los organismos oficiales de la India han disminuido significativamente con el tiempo. Si bien el país solicitó que la plataforma eliminara alrededor de 30,000 piezas de contenido en 2015, solo lo hizo por 3,000 en 2017. El informe afirma que la mayoría del contenido que el gobierno quería eliminar era "anti-religión" y "anti-religión". puestos del estado

En 2013, India encabezó la lista con la mayoría de las solicitudes de eliminación de contenido, pero ahora se ubica en el número 7.

Al mismo tiempo, a nivel mundial, la plataforma ha eliminado de forma proactiva una cantidad creciente de contenido que consideró "discurso de odio": de 1,6 millones en el último trimestre de 2017 a 3 millones en el tercer trimestre de 2018.

Cada vez más, estos derribos son marcados por la compañía antes de ser reportados por los usuarios. Para el tercer trimestre de 2018, más del 50 por ciento de los ataques de odio en todo el mundo fueron "detección proactiva", lo que significa que la plataforma los marcó antes de que un usuario informara el contenido a la empresa.

Un informe de Facebook dice: "La cantidad de contenido que marcamos aumentó de alrededor del 24% en el cuarto trimestre de 2017 porque mejoramos nuestra tecnología y procesos de detección para encontrar y marcar más contenido antes de que los usuarios lo informaran".

India es el mercado más grande de Facebook con aproximadamente 300 millones de usuarios.

Maria Montero

Me apasiona la fotografía y la tecnología que nos permite hacer todo lo que siempre soñamos. Soñadora y luchadora. Actualmente residiendo en Madrid.

Recent Posts

Uber utilizará la eSIM de Valid para casos de uso de IoT

Uber está mejorando sus implementaciones de IoT en todo el mundo mediante la adopción de…

3 years ago

Matter Motor Works se asocia con Airtel para habilitar sus bicicletas AERA con soluciones IoT

Obras de motor de materia y Bharti Airtel, un proveedor de servicios de telecomunicaciones ha…

3 years ago

Escultura de Zelda Guardian rastrea a humanos y mascotas a través de una cámara

En The Legend of Zelda: Breath of the Wild, los guardianes son una forma primitiva…

3 years ago

Nos encanta este diminuto Wall-E controlado por radio

Muchos de nosotros nos enamoramos absolutamente de Wall-E, el personaje principal de una…

3 years ago

Serie Samsung Galaxy S24: fecha de lanzamiento, especificaciones, precio y todos los rumores hasta ahora

Dhruv Bhutani / Android AuthorityCada año, los fanáticos de los teléfonos inteligentes esperan con ansias…

3 years ago

Final Cut Pro para iPad: fecha de lanzamiento, características, compatibilidad, precio

Apple ha anunciado que Final Cut Pro finalmente llegará para el iPad. Tras años de…

3 years ago