Wed. Dec 31st, 2025

Cuando Apple anunció los cambios que planea realizar en los dispositivos iOS en un esfuerzo por ayudar a frenar el abuso infantil mediante la búsqueda de material de abuso sexual infantil (CSAM), partes de su plan generaron reacciones violentas.
Primero, está implementando una actualización para su aplicación de búsqueda y el asistente de voz Siri en iOS 15, watchOS 8, iPadOS 15 y macOS Monterey. Cuando un usuario busca temas relacionados con el abuso sexual infantil, Apple redirigirá al usuario a los recursos para denunciar CSAM o para obtener ayuda para una atracción por dicho contenido.
Pero son los otros dos planes CSAM de Apple los que han recibido críticas. Una actualización agregará una opción de control parental a Mensajes, enviando una alerta a los padres si un niño de 12 años o menos ve o envía imágenes sexualmente explícitas y oscureciendo las imágenes para cualquier usuario menor de 18 años.
El que ha demostrado ser más controvertido es el plan de Apple de escanear imágenes en el dispositivo para encontrar CSAM antes de que las imágenes se carguen en iCloud, informándolas a los moderadores de Apple, quienes luego pueden entregar las imágenes al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC). en el caso de una posible coincidencia. Si bien Apple dice que la función protegerá a los usuarios mientras le permite a la compañía encontrar contenido ilegal, muchos críticos de Apple y defensores de la privacidad dicen que la disposición es básicamente una puerta trasera de seguridad, una aparente contradicción con el compromiso de Apple con la privacidad del usuario.
Para mantenerse al día con las últimas noticias sobre los planes de protección CSAM de Apple, siga nuestra historia, que actualizaremos cada vez que haya un nuevo desarrollo. Si necesita un punto de partida, consulte nuestro explicador aquí.

By Erica Flores

Enamorada de la tecnología. Apasionada de la velocidad que la información puede adquirir en este mundo cambiante. Actualmente residiendo en Barcelona.