Brenton Tarrant, principal sospechoso del atentado, durante la emisión en Facebook Live
Brenton Tarrant, principal sospechoso del atentado, durante la emisión en Facebook Live - ABC

Facebook endurecerá pero no concreta las condiciones para emitir en directo tras el tiroteo de Nueva Zelanda

El gigante de internet estudia la posibilidad de aplicar su ideario contra los mensajes racistas a todos sus servicios como Instagram y el desarrollo de una tecnología de revisión para que detecte los vídeos editados, una «trampa» de los usuarios para saltarse los filtros de control

MADRIDActualizado:

Las emisiones en directo a través de las redes sociales las carga el Diablo. Una función apetecible para muchos usuarios, que otros tantos han logrado, en calidad de «influencer», ganarse un buen pellizco de dinero, pero que asesinos y criminales han empleado para sus fines delicivos. Cuestionada por su tardanza en reaccionar sobre el crimen de Nueva Zelanda, Facebook ha prometido, aunque sin concretar los detalles, limitar el uso de su plataforma de vídeo en directo, Facebook Live.

Este servicio fue el utilizado por el autor del ataque en las mezquitas de Christchurch. Las imágenes del tiroteo se difundieron por internet rápidamente. La retransmisión duró unos 17 minutos hasta que la compañía estadounidense la bloqueó. Un hecho que ha vuelto a cuestionar los controles de revisión. ¿Hacen las redes sociales todo lo posible por frenar estas publicaciones violentas?

El gigante de internet vive ahora de promesas. Aunque la pasada semana la compañía adelantó una nueva ofensiva contra el contenido racista, ahora ha prometido introducir condiciones más duras y exigentes a la hora de emitir en directo. «Tras este ataque terrorista estamos valorando tres medidas: endurecer las reglas para usar Facebook Live, aplicar nuestra lucha contra el odio en nuestras redes y apoyar a los neozelandeses», escribió Sheryl Sandberg, «número dos» de Facebook, en una tribuna. en el medio local «NZ Herald».

Una de ellas es, según estudia el gigante de las redes sociales, la prohibicón a los usuarios de Facebook Live que anteriormente hayan violado sus reglas de publicación. Pero, además, piensa en el desarrolo de una nueva tecnología para «identificar rápidamente las versiones editadas de vídeos e imágenes violentas para evitar que los usuarios compartan estas publicaciones».

Facebook, que bloqueó unas 1,2 millones de publicaciones de vídeos de la masacre el primer día, ha detectado un problema de los sistemas de revisión automatizado; los vídeos editados se saltan los filtros. «El vídeo original se compartió en directo. Sabemos que este vídeo se difundió principalmente a través de personas que lo compartían y lo volvían a editar para que fuese más difícil bloquearlo por nuestros sitemas. Hemos identificado más de 900 videos diferentes que muestran secuencias de esos horrendos 17 minutos», añade la directiva, quien insiste: «Las personas con malas intenciones siempre intentarán sortear nuestras medidas de seguridad».

La primera ministra de Nueva Zelanda, Jacinda Ardern, pidió a incluso a los gobiernos de todo el mundo que abordasen el problema. En Francia, el consejo francés de la fe musulmana (CFCM) anunció que estaba presentando una queja contra Facebook y YouTube por su función de retransmisión de vídeo. Australia, de donde era residente el terrorista, adelantó la posibilidad de imponer penas de prisión a los ejecutivos de gigantes tecnológicos si sus plataformas no eliminaban rápidamente el contenido extremista.

Al igual que otras plataformas de internet, Facebook está continuamente atrapada en un dilema que parece tener dificultades para salir adelante: o bien dejar que los usuarios se expresen cualquiera de los términos que sean en sus redes para no coartar la libertad de expresión o bloquearlos mensajes violentos en detrimento de una pérdida de masa de usuarios.