Un importante estudio de colaboración colectiva descubrió que la inteligencia artificial de YouTube todavía recomienda la mayoría de los videos que los usuarios lamentan haber visto.
Mozilla lanzó un estudio utilizando un ejército de voluntarios de colaboración colectiva que encontró, del contenido que los usuarios lamentaron ver, el 71 por ciento eran recomendaciones de la IA de YouTube.
A lo largo de los años, ha surgido la preocupación de que los algoritmos de YouTube hayan promovido videos que van desde estúpidos pero por lo demás inocuos hasta discursos de incitación al odio, conspiraciones, abusos, desinformación y extremismo político / religioso. Cuanto más se miran estos videos, más se recomiendan y se forman burbujas peligrosas donde las vistas se solidifican y no se toleran otras perspectivas.
“Ahora sabemos que YouTube recomienda videos que violan sus propias políticas de contenido y dañan a personas de todo el mundo, y eso debe terminar”, dice Mozilla.
Como producto de Google, uno de los líderes mundiales en inteligencia artificial, parece impactante que YouTube siga ofreciendo tales recomendaciones. Hace que muchas personas se pregunten si hay pocos incentivos para cambiarlo, ya que el clickbait mantiene a los usuarios interesados en la plataforma, para bien o para mal.
YouTube es el mayor proveedor de videos en línea; llegando a más de dos mil millones de espectadores por mes y ofreciendo más de mil millones de horas de tiempo de visualización todos los días. Con eso en mente, Google tiene la gran responsabilidad de garantizar que el contenido que recomienda sea apropiado.
No es necesariamente una tarea fácil, pero Google debería estar en condiciones de administrarla. Cosas como el discurso de odio y el extremismo no tienen cabida en YouTube, pero Google tiene que pisar una línea muy fina cuando se trata de evitar cosas como los prejuicios políticos que podrían considerarse manipulación electoral.
Aproximadamente el nueve por ciento de los videos que los participantes del estudio de Mozilla lamentaron haber visto fueron luego eliminados de YouTube.
Google ha tomado medidas a lo largo de los años para tratar de abordar algunos de los contenidos problemáticos en su plataforma y afirma haber realizado 30 cambios en sus algoritmos durante el año pasado para reducir las recomendaciones de videos dañinos. Si bien podría decirse que no ha ido lo suficientemente lejos, merece algo de crédito por eso. Sin embargo, parece que estos esfuerzos han sido más efectivos para los países de habla inglesa.
Según el estudio de Mozilla, la recomendación de YouTube de videos que los usuarios lamentaron ver es un 60 por ciento más alta en países que no hablan inglés como idioma principal. Esto fue especialmente cierto en Brasil, Alemania y Francia.
El informe proporciona una variedad de recomendaciones para ayudar a YouTube y sus usuarios a abordar el problema.
Para los usuarios, Mozilla recomienda verificar sus historiales de "observación" y "búsqueda" para eliminar cualquier cosa que no desee que influya en el contenido que se le ofrece.
Mozilla también recomienda que YouTube configure una auditoría independiente de sus sistemas de recomendación, sea más transparente sobre el contenido límite y brinde la capacidad de optar por no recibir personalización por completo.
Los legisladores deberían exigir algunas de estas cosas a Google, sugiere Mozilla. Esto incluye la divulgación de información y la creación de herramientas para que investigadores externos examinen los algoritmos de YouTube.
Puede encontrar una copia completa del informe de Mozilla aquí.
(Foto de Alexander Shatov en Unsplash)
Encuentra mas sobre Semana de la Transformación Digital Norteamérica, que tendrá lugar del 9 al 10 de noviembre de 2022, un evento virtual y una conferencia que explora estrategias DTX avanzadas para un mundo de "todo digital".
El estudio de la publicación encuentra que la inteligencia artificial de YouTube sirve a la mayoría del contenido que los usuarios lamentan haber visto primero en AI News.