RRSS, la muerte en directo - Vídeo: Carolina Mínguez

FacebookFacebook Live: cuando la muerte se retransmite en directo

Los expertos apuntan que la multinacional americana debe articular mecanismos para reaccionar a tiempo y evitar así la propagación de videos en los que usuarios cometen un crimen o se dañan a ellos mismos

Pero el debate existe: ¿hasta qué punto las redes sociales y servicio de emisión en «streaming» son responsables de actos dudosos o crímenes?

Tras estos sucesos que han agitado la conciencia colectiva, la compañía cambiará algunos aspectos de su política de contenidos

MADRIDActualizado:

Era un aparente domingo cualquiera. Las 11.09 horas para se exactos. La fecha, un 16 de abril. Steve Stephens, de 37 años, aparece, por sorpresa, en un video colgado en su perfil de Facebook. Emite en directo. Asegura haber matado a trece personas. Conducía, como si tal cosa, pero tenía un propósito en mente: matar a alguien. Y lo consiguió, para vergüenza de la raza humana. Pocos minutos después acaba con la vida de Robert Godwin, de 74 años. La víctima andaba tranquilamente por allí y pagó la frustración de una persona de haber discutido horas antes con su novia. Le quitó la vida y se convirtió, en ese instante, en un criminal buscado por la policía. Tras varias denuncias de usuarios, la multinacional americana cortó la emisión dos horas después. Facebook asegura, sin embargo, que bloqueó la cuenta a los 23 minutos después de haber sido alertado del contenido del video. Pero el daño ya estaba hecho. Miles de personas lo habían visto con sus ojos.

Tras una persecución y acosado por los cuerpos de policía de Cleveland (Ohio, EE.UU.), Stephens decidió, entonces, quitarse la vida y poner fin a esta tragedia retransmitida en directo. Fueron tres videos de casi cuatro minutos de duración en su conjunto en donde, como si se tratase de una película de Quentin Tarantino, relataba paso a paso los acontecimientos (primero, la planificación; segundo, el acto; tercero, la confesión). Un relato macabro. Un episodio difícil de creer y que ha generado un debate social sobre las repercusiones y la actitud de las empresas de internet para frenar este tipo de casos en los que se muestran en vivo imágenes de crímenes o de suicidios.

El ser humano del siglo XXI vive totalmente inmunizado al dolor. Y a la angustia. Ve con sus propios ojos el miedo y la sangre cada día en la televisión. Uno ya no se sorprende de nada. Hasta los niños, incluso, tienen a su alcance imágenes trágicas que se pegan a sus retinas como el sudor a la piel. El morbo está a la orden del día. Todos somos conscientes. Si un informador presenta una imagen pero, precavido, dice «estas imágenes pueden herir la sensibilidad» lo más normal es que active una palanca en el cerebro y observemos de reojillo lo que va a suceder. Por eso puede haber personas que incluso ante la presencia de un cadáver lleguen a grabar videos y a hacer comentarios que, tal vez, en otras épocas llegarían a espantar a cualquiera. Es frívolo, pero las redes sociales han magnificado todas esas situaciones. Se han producido incluso casos de suicidio en directo, cuyos videos han permanecido disponible varias horas. Algo terrible.

Si bien es cierto que la muerte siempre está presente, las nuevas tecnologías han sufrido en sus carnes cómo servicios en teoría útiles y prácticos como las retransmisiones en directo (Periscope, Twitter, Facebook Live, Twitch…) se han convertido en un arma de doble filo. El «troll», aquellos usuarios que bajo el anonimato han encontrado un paraíso para el insulto, o el criminal de turno lo que quieren en realidad es atención. Propaganda. Y cuanta más, mejor. Por ello hay quienes no dudan ni un segundo que encontrarán cobijo en sus actos incívicos, vandálicos o de dudosa actividad. Son casos aislados, es cierto, pero demuestran que las nuevas tecnologías, en muchos casos, se han utilizado para otros fines que no fueron originalmente planificados. Así ha sido a lo largo de la Historia.

Son muchas las cuestiones alrededor. ¿Qué responsabilidades tiene una plataforma «online» ante un crimen de uno de sus usuarios? ¿Hasta qué punto se les puede acusar? ¿Qué pueden hacer? Es más, ¿puede la tecnología anticiparse (y evitar incluso) ante una tragedia? Las políticas de uso registradas en Facebook o Twitter, empresas que disponen de servicios de retransmisión de video en «streaming», recogen que está literalmente prohibido hacer apología de la violencia o incitar a ella.

Para evitarlo, un sistema informático basado en inteligencia artificial se encarga de velar por el cumplimiento de estas normativas. Pero en la mayoría de los casos es la comunidad la encargada de autorregular (o censurar) estos contenidos gracias al uso de una serie de herramientas a su alcance para denunciar y reportar el contenido inapropiado, tal y como sucedió en otro caso similar cuando dos personas de 14 y 15 años violaron a una menor mientras treinta personas lo presenciaban, impasibles, en directo a través de Facebook Live.

«Tal vez nos falta cultura en el uso de las redes sociales o entender cómo funcionan, porque hay cosas de esas redes sociales que al final se acaban utilizando para cosas diferentes a la idea original»
Esteban Mucientes , experto en redes sociales

Otro terrible caso se produjo en febrero en Chicago cuando un menor de dos años, Lavontay White, y el novio de su tía, morían acribillados a balazos a manos de un hombre de 26 años. Aquella escena se retransmitió a través de Facebook Live. Al hilo de estos acontecimientos que han enmudecido a la comunidad, el propio Mark Zuckerberg, fundador y responsable de Facebook, reconoció que hay un «gran trabajo por delante por hacer». Durante su intervención en la pasada conferencia de desarrolladores F8 dijo: «Seguimos haciendo todo lo posible para evitar este tipo de tragedias».

Como resultado de estos terribles sucesos, la multinacional americana ha asegurado que se encuentra «revisando» sus sistemas y consultando informes internos para asegurar que los usuarios pueden reportar videos inapropiados y otros contenidos que violan sus estándares de calidad «tan fácil y rápidamente como sea posible». «En este caso no recibimos una denuncia sobre el primer video, y sólo recibimos una sobre el segundo video, más de una hora y 45 minutos después de su publicación. Recibimos informes sobre el tercer video, que contenía la confesión en directo del hombre únicamente después de que hubiera terminado», reconoce Justin Osofsky, vicepresidente de operaciones de Facebook, en un comunicado, en el que lamenta los hechos: «Sabemos que tenemos que hacerlo mejor».

La importancia de los tiempos de reacción

«La culpa es del usuario. Facebook no mata a alguien, Facebook no se suicida», asegura a este diario Esteban Mucientes, experto en redes sociales y asesor de la agencia Cuchillo. «Ponemos en el foco en la parte no personal, porque hay una empresa detrás, pero tal vez nos falta cultura en el uso de las redes sociales o entender cómo funcionan, porque hay cosas de esas redes sociales que al final se acaban utilizando para cosas diferentes a la idea original», apunta.

Este experto se muestra seguro que la multinacional americana hace «todo lo posible» para frenar este tipo de retransmisiones, pero considera que los usuarios, al final, también tienen responsabilidades a la hora de denunciar los hechos. «A lo mejor Facebook podría mejorar los tiempos de reacción, pero ni siquiera Google sabe trabajarlo correctamente porque se requiere de un gran equipo humano. Por mucha inteligencia artificial que se implante un ser humano es quien puede juzgar si representa un problema. Estamos poniendo un foco de seguridad ciudadana cuando estas plataformas son un transmisor», sostiene.

En la misma línea apunta Sergio Carrasco, abogado especializado en derecho tecnológico en Fase Consulting, quien asegura por correo electrónico a ABC que en el caso del crimen de Cleveland Facebook no es responsable de ello, más allá de ser el titular de la plataforma. «Al igual que sucede con YouTube y los terribles vídeos que en ocasiones se publicitan a través de su servicio, a lo que están obligados es a actuar de manera diligente una vez son notificados de la existencia de determinados contenidos», manifiesta.

«A lo que están obligados es a actuar de manera diligente una vez son notificados de la existencia de determinados contenidos»
Sergio Carrasco , abogado

A su juicio, es imposible supervisar de manera automática y perfecta todo contenido. Y pone un ejemplo: basta ver los falsos positivos que algunas herramientas provocaron en relación a fotos de desnudos. «El problema es que, al tratarse de herramientas de emisiones en vivo, resulta casi imposible actuar durante la retransmisión sobre todo si se trata de casos en los que el acto se produce rápidamente y antes de que algún moderador pueda llegar a actuar», añade.

«Más que contribuir, están haciendo que resulten más visibles al permitir tanto la posibilidad de acceso sencillo a una emisión en vivo con un público potencial enorme. Quien quiere emitir en vivo puede hacerlo, con dispositivos de bajo coste, y con una sencillez que hasta hace poco era impensable». Por esta razón, este experto señala que la mejor opción está en «facilitar las denuncias rápidas para determinados sucesos», de forma que «la moderación cuente con un equipo que actúe de manera preferente en emisiones».

Por su parte, Samuel Parra, abogado experto en privacidad y derecho en red, manifiesta en conversación telefónica que desde el punto de vista legal, al menos en el entorno español, las redes sociales no tienen una obligación de controlar en tiempo real los videos o imágenes que se están subiendo. «Sería inviable por el alto volumen que sacan. La red social sí puede ser responsable de alojar un contenido de tercero en caso de vulnerar un derecho de un tercero, por ejemplo, si cuelgo una imagen de contenido injurioso o que puede vulnerar la intimidad de otra persona», matiza.

«No podemos pretender que las plataformas que manejan miles de millones de datos por minuto tengan cientos o miles de personas las 24 horas para revisar lo que publique la gente»
Samuel Parra , abogado

Porque, en líneas generales, esta serie de actividades difundidas en redes sociales se magnifican, pero se deja en manos de la comunidad y los moderadores encargados de visualizar el contenido reportado. «Hay sistemas y algoritmos que sí pueden detectar una banda sonora protegida por derechos de autor, retirando el contenido automáticamente. Pero si Facebook recibe una petición tan evidente como una fotografía denunciada y no hace nada va a ser responsable como si la hubiera publicado él [por la red social]», asegura.

La solución que propone este experto es que las compañías de internet sean «diligentes» porque no tiene sentido que se denuncie un contenido y que éste desaparezca a los dos meses. «No podemos pretender que las plataformas que manejan miles de millones de datos por minuto tengan cientos o miles de personas las 24 horas para revisar lo que publique la gente para despublicarlo al minuto. Mientras habiliten herramientas para que se agilice la revisión y actúen en consecuencia con eso es suficiente. Más allá no podemos exigirle».