Mon. Dec 29th, 2025

La aplicación de citas Bumble está abriendo su herramienta de inteligencia artificial para detectar lascivia que se presentó por primera vez en 2019.

La herramienta ayuda a proteger a los usuarios de ciertas fotos no solicitadas, y no estamos sólo hablando de genitales, pero también de selfies sin camisa y fotos de armas de fuego.

Cuando un usuario recibe una imagen sospechosa, se difumina para permitir que el destinatario la vea, la bloquee o informe al remitente.

El acoso en línea es difícil de contrarrestar por completo, pero la IA está demostrando ser una herramienta poderosa para ayudar a proteger a los usuarios, especialmente a los vulnerables. Una investigación impactante en 2020 encontró que al 75.8 por ciento de las niñas entre las edades de 12 y 18 años se les han enviado imágenes de desnudos no solicitados.

Al abrir su herramienta de inteligencia artificial, Bumble puede ayudar a proteger a más usuarios en línea.

“Esperamos que la función sea adoptada por la comunidad tecnológica en general mientras trabajamos en conjunto para hacer de Internet un lugar más seguro”, explicó Bumble en una publicación de blog.

Los moderadores de contenido humano ven lo peor de la web día tras día. Pasar sus días revisando abusos, torturas, masacres, decapitaciones y más está destinado a tener un costo mental grave. Como resultado, los moderadores de contenido a menudo requieren terapia y es un rol asociado con una de las tasas de suicidio más altas.

Confiar únicamente en la moderación de la IA es problemático. Los moderadores humanos, por ejemplo, pueden entender el contexto y distinguir la diferencia entre el contenido que expone los crímenes de guerra y el de la propaganda terrorista que glorifica el odio y la violencia.

Las herramientas de IA como la de código abierto de Bumble pueden ayudar a proteger a los moderadores al desdibujar el contenido y al mismo tiempo aprovechar las habilidades únicas de los humanos.

En su publicación de blog, Bumble explicó cómo atravesó las compensaciones entre el rendimiento y la capacidad de servir a su base de usuarios a escala:

“Implementamos (en su última iteración) un basado en EfficientNetv2 clasificador binario: una red convolucional que tiene una velocidad de entrenamiento más rápida y una mejor eficiencia general de los parámetros. Utiliza una combinación de arquitectura y escalado mejor diseñados, con capas como MBConv (que utiliza circunvoluciones 1 × 1 para ampliar el espacio y circunvoluciones en profundidad para reducir la cantidad de parámetros generales) y MBConv fusionado (que fusiona algunos pasos del MBConv vainilla anterior para una ejecución más rápida), para optimizar conjuntamente la velocidad de entrenamiento y la eficiencia de los parámetros.

El modelo ha sido entrenado aprovechando nuestros centros de datos alimentados por GPU en un ejercicio continuo de optimización de conjuntos de datos, redes e hiperparámetros (la configuración utilizada para acelerar o mejorar el rendimiento del entrenamiento).

Bumble dice que su herramienta, tanto fuera de línea como en línea, logra un “rendimiento de clase mundial” de más del 98 por ciento de precisión tanto en configuraciones de muestreo superior como de producción.

Puede encontrar la herramienta de Bumble en GitHub aquí. La herramienta ha sido lanzada bajo la licencia de Apache para que cualquiera pueda implementarla tal como está para difuminar imágenes lascivas o puede ajustarla con muestras de capacitación adicionales.

(Crédito de la imagen: Bumble)

¿Quiere aprender más sobre IA y big data de los líderes de la industria? Eche un vistazo a AI & Big Data Expo que tendrá lugar en Ámsterdam, California y Londres.

Explore otros próximos eventos y seminarios web de tecnología empresarial impulsados ​​por TechForge aquí.

La publicación Bumble abre el código fuente de su herramienta de IA para detectar lascivia apareció primero en AI News.

By Erica Flores

Enamorada de la tecnología. Apasionada de la velocidad que la información puede adquirir en este mundo cambiante. Actualmente residiendo en Barcelona.