El presunto atacante antes de iniciar el ataque
El presunto atacante antes de iniciar el ataque - abc

El vídeo original de la masacre de Nueva Zelanda se vio en Facebook unas 4.000 veces antes de bloquearse

La red social relata el proceso de detección de la secuencia del asesino de 50 personas en dos mezquitas: nadie denunció la emisión hasta media hora después

madridActualizado:

En los tiempos de reacción está la clave. El tiroteo de Nueva Zelanda ha vuelto a poner en cuestión a las redes sociales y su capacidad para reducir la viralidad de unos hechos que pueden herir sensibilidades. Facebook ha asegurado que la retransmisión en directo de Brenton Tarrant, autor de la masacre en la mezquita de Christchurch que dejó unas 50 personas muertas, se pudo ver por unas 200 personas, aunque alcanzó las 4.000 reproducciones antes de ser eliminado por la compañía. Nadie, entonces, hizo nada para denunciarlo.

La multinacional estadounidense ha desvelado el resultado de una auditoría interna para esclarecer de qué manera se pudieron saltar los controles de revisión durante unos 17 minutos antes de bloquear la emisión en «streaming» y eliminar las cuentas del sospechoso. El primer informe sobre el video original se realizó 29 minutos después del comienzo de la transmisión y 12 minutos después de que terminó. Nadie lo denunció hasta media hora después, ningún usuario, reabriendo así el debate acerca de la responsansabilidad de la propia comunidad.

Antes de recibir una alerta sospechosa sobre el video, un usuario de la red social 8chan publicó un enlace con el video en un servicio para compartir archivos, con lo que las secuencias se amplificaron. Después de eliminar el contenido, el vídeo, sin embargo, dio la vuelta al mundo al saltar a otras plataformas como YouTube, Twitter o Instagram.

Para bloquear un contenido violento o que infrinja los derechos de autor, Facebook cuenta con un sistema combinado de algoritmos y revisores humanos, pero estos automatismos se basan en archivos que ya presentes en sus bases de datos para agilizar el proceso. En un atentado, su detección es más complicada, reconoce en un comunicado Chris Sonderby, vicepresidente y consejero general adjunto de Facebook. «Eliminamos el video original de Facebook Live y lo fragmentamos para que otras acciones visualmente similares a ese video puedan detectarse y se eliminen automáticamente de Facebook e Instagram», subraya.

En las primeras 24 horas, Facebook eliminó alrededor de 1,5 millones de videos del ataque a nivel mundial. Más de 1,2 millones de esas publicaciones se bloquearon en el proceso de carga: «Por tanto se impidió verse en nuestros servicios», añade. El directivo de la compañía ha adelantado, sin embargo, que la red social identifica contenido abusivo en otras redes sociales «para evaluar si ese contenido podría migrar a una de nuestras plataformas».