Tue. Dec 30th, 2025

Courtney Davis, un operador de telecomunicaciones en el Departamento de Policía en Rock Hill, S.C., y el Sargento de policía de Rock Hill. Bruce Haire, en Rock Hill, S.C., 17 de diciembre de 2018. (Logan R. Cyrus / The New York Times)

por Natasha Singer

Un oficial de policía en el último turno en una ciudad de Ohio recibió recientemente una llamada inusual de Facebook.

Más temprano ese día, una mujer local escribió una publicación en Facebook que decía que estaba caminando a casa y que tenía la intención de suicidarse cuando llegara allí, según un informe policial sobre el caso. Facebook llamó para advertir al Departamento de Policía sobre la amenaza de suicidio.

El oficial que atendió la llamada rápidamente localizó a la mujer, pero ella negó haber tenido pensamientos suicidas, según el informe policial. Aun así, el oficial creyó que podía hacerse daño y le dijo a la mujer que debía ir al hospital, ya sea voluntariamente o bajo custodia policial. Finalmente, la llevó a un hospital para una evaluación de salud mental, una evaluación motivada por la intervención de Facebook. (The New York Times retuvo algunos detalles del caso por razones de privacidad).

Las estaciones de policía de Massachusetts a Mumbai han recibido alertas similares de Facebook durante los últimos 18 meses como parte de lo que probablemente sea el programa de alerta y detección de amenazas de suicidio más grande del mundo. La red social incrementó el esfuerzo después de que varias personas emitieran sus suicidios en vivo a través de Facebook Live a principios de 2017. Ahora utiliza algoritmos e informes de usuarios para detectar posibles amenazas de suicidio.

El ascenso de Facebook como árbitro global de la angustia mental pone a la red social en una posición difícil en un momento en que está siendo investigada por fallas de privacidad de los reguladores en los Estados Unidos, Canadá y la Unión Europea, además de enfrentar un mayor escrutinio por no responda rápidamente a la interferencia electoral y las campañas de odio étnico en su sitio. Aun cuando el presidente ejecutivo de Facebook, Mark Zuckerberg, se disculpó por la recolección incorrecta de los datos de los usuarios, la compañía lidió el mes pasado con nuevas revelaciones sobre acuerdos especiales de intercambio de datos con compañías tecnológicas.

La campaña contra el suicidio le da a Facebook la oportunidad de enmarcar su trabajo como una buena noticia. El suicidio es la segunda causa de muerte entre las personas de 15 a 29 años en todo el mundo, según la Organización Mundial de la Salud. Algunos expertos en salud mental y oficiales de policía dijeron que Facebook había ayudado a los oficiales a localizar y detener a personas que estaban claramente a punto de hacerse daño.

Facebook tiene algoritmos informáticos que analizan las publicaciones, los comentarios y los videos de los usuarios en los Estados Unidos y otros países para detectar indicios de riesgo inmediato de suicidio. Cuando una publicación está marcada por la tecnología o por un usuario en cuestión, pasa a los revisores humanos de la empresa, que están facultados para llamar a las autoridades locales.

"En el último año, hemos ayudado a los socorristas a llegar rápidamente a unas 3.500 personas en todo el mundo que necesitaban ayuda", escribió Zuckerberg en un post de noviembre sobre los esfuerzos.

Pero otros expertos en salud mental dijeron que las llamadas de Facebook a la policía también podrían causar daños, como precipitar sin querer el suicidio, obligar a las personas no suicidas a someterse a evaluaciones psiquiátricas o provocar arrestos o tiroteos.

Y, dijeron, no está claro si el enfoque de la compañía es exacto, efectivo o seguro. Facebook dijo que, por razones de privacidad, no rastreaba los resultados de sus llamadas a la policía. Y no ha revelado exactamente cómo deciden sus revisores si se debe llamar al personal de emergencia. Según los críticos, Facebook ha asumido la autoridad de una agencia de salud pública al tiempo que protege su proceso como si fuera un secreto corporativo.

"Es difícil saber qué está captando Facebook en realidad, en qué están actuando, y están dando la respuesta adecuada al riesgo apropiado", dijo el Dr. John Torous, director de la división de psiquiatría digital de Beth Israel Deaconess Medical Centro en boston "Es medicina de caja negra".

Facebook dijo que trabajó con expertos en prevención del suicidio para desarrollar un programa integral para conectar rápidamente a los usuarios en peligro con sus amigos y enviarles información de contacto para líneas de ayuda. Los expertos también ayudaron a capacitar a equipos dedicados de Facebook, que tienen experiencia en la aplicación de la ley y la respuesta a crisis, para revisar los casos más urgentes. Esos revisores se comunican con los servicios de emergencia solo en una minoría de casos, cuando los usuarios parecen tener un riesgo inminente de autolesiones graves, dijo la compañía.

"Si bien nuestros esfuerzos no son perfectos, hemos decidido errar por el lado de proporcionar a las personas que necesitan ayuda con recursos lo antes posible", dijo Emily Cain, una portavoz de Facebook, en un comunicado.

En una publicación de septiembre, Facebook describió cómo había desarrollado un sistema de reconocimiento de patrones para calificar automáticamente ciertas publicaciones y comentarios de los usuarios con respecto a la probabilidad de pensamientos suicidas. El sistema escala automáticamente las publicaciones de alta puntuación, así como las publicaciones enviadas por los usuarios interesados, a revisores especialmente capacitados.

"Facebook siempre ha estado muy por delante del paquete", dijo John Draper, director de la Línea Nacional de Prevención del Suicidio, "no solo en la prevención del suicidio, sino también en dar un paso adicional hacia la innovación y comprometernos con enfoques realmente inteligentes y progresistas". . ”(Vibrant Emotional Health, el grupo sin fines de lucro que administra Lifeline, ha asesorado y recibido fondos de Facebook).

Facebook dijo que su sistema de puntuación de riesgo de suicidio funcionaba en todo el mundo en inglés, español, portugués y árabe, excepto en la Unión Europea, donde las leyes de protección de datos restringen la recopilación de datos personales como la información de salud. No hay forma de excluirse, a menos que no se publique o elimine su cuenta de Facebook.

Mason Marks, un experto en derecho sanitario que argumenta que el software de puntuación de riesgo de suicidio de Facebook, junto con sus llamadas a la policía que pueden llevar a evaluaciones psiquiátricas obligatorias, constituye la práctica de la medicina en la Universidad Gonzaga en Spokane, Washington, el 21 de diciembre. 2018. (Jerome Pollos / The New York Times)

Una revisión de cuatro informes policiales, obtenida por The Times bajo las solicitudes de la Ley de Libertad de Información, sugiere que el enfoque de Facebook ha tenido resultados mixtos. Excepto en el caso de Ohio, los departamentos de policía redactaron los nombres de las personas marcadas por Facebook.

En un caso en mayo, un representante de Facebook ayudó a los agentes de policía en Rock Hill, Carolina del Sur, a localizar a un hombre que estaba transmitiendo un intento de suicidio en Facebook Live. En una grabación de la llamada a la estación de policía, el representante de Facebook describió el fondo del video (árboles, una señal de la calle) a un operador de policía y proporcionó la latitud y longitud del teléfono del hombre.

El Departamento de Policía le dio crédito a Facebook por ayudar a los agentes a localizar al hombre, que intentó huir y fue trasladado a un hospital.

"Dos personas llamaron a la policía esa noche, pero no pudieron decirnos dónde estaba", dijo Courtney Davis, un operador de telecomunicaciones de la policía de Rock Hill, que respondió a la llamada de Facebook. "Facebook podría".

El Departamento de Policía de Mashpee, Massachusetts, tuvo una experiencia diferente. Justo antes de las 5:16 a.m. 23 de agosto de 2017, un agente de la policía de Mashpee recibió una llamada de un departamento de policía vecino sobre un hombre que estaba transmitiendo su suicidio en Facebook Live. Los oficiales llegaron a la casa del hombre unos minutos después, pero cuando llegaron a él, ya no tenía pulso, según los registros de la policía.

A las 6:09 a.m., según el informe, un representante de Facebook llamó para alertar a la policía sobre la amenaza de suicidio.

Scott W. Carline, jefe del Departamento de Policía de Mashpee, declinó hacer comentarios. Pero dijo de Facebook: "Me gustaría verlos mejorar las herramientas de prevención del suicidio que tienen para identificar señales de advertencia que podrían llegar a ser fatales".

El Caín de Facebook dijo que, en algunos casos, la ayuda desafortunadamente no llegó a tiempo. "Realmente sentimos por esas personas y sus seres queridos cuando eso ocurre", dijo.

El cuarto caso, en mayo de 2017, involucró a un adolescente en Macon, Georgia, que estaba transmitiendo un intento de suicidio. Facebook llamó a la policía después de que los agentes ya habían encontrado a la adolescente en su casa, dijo una portavoz de la oficina del alguacil del condado de Bibb. El adolescente sobrevivió al intento.

Algunos investigadores de salud también están tratando de predecir el riesgo de suicidio, pero están usando una metodología más transparente y recolectando evidencia sobre los resultados.

El Departamento de Asuntos de Veteranos ha desarrollado un programa de predicción del riesgo de suicidio que utiliza la IA para escanear los registros médicos de los veteranos en busca de ciertos medicamentos y enfermedades. Si el sistema identifica a un veterano como de alto riesgo, el VA ofrece citas de salud mental y otros servicios. Los hallazgos preliminares de un estudio de VA informaron menos muertes en general entre los veteranos en el programa en comparación con los veteranos no participantes.

En un próximo artículo en una revista de derecho de Yale, Mason Marks, un académico de derecho de la salud, argumenta que el software de puntuación de riesgo de suicidio de Facebook, junto con sus llamadas a la policía que pueden conducir a evaluaciones psiquiátricas obligatorias, constituye la práctica de la medicina. Él dice que las agencias gubernamentales deben regular el programa, que requiere que Facebook produzca evidencia de seguridad y efectividad.

"En este clima en el que la confianza en Facebook se está erosionando realmente, me preocupa que Facebook simplemente diga 'Confíe en nosotros aquí'", dijo Marks, miembro de la Facultad de Derecho de Yale y de la Facultad de Derecho de la Universidad de Nueva York.

Cain de Facebook no estuvo de acuerdo con que el programa fuera un examen de salud. "Estos son temas complejos", dijo, "por lo que hemos estado trabajando estrechamente con expertos".

By Maria Montero

Me apasiona la fotografía y la tecnología que nos permite hacer todo lo que siempre soñamos. Soñadora y luchadora. Actualmente residiendo en Madrid.