El futuro de Google, Facebook y Twitter se decide en el Tribunal Supremo de EE.UU.

Dos juicios que se celebran entre hoy y mañana pueden obligar a que las redes sociales comiencen a responder legalmente por el contenido que publican los usuarios

Beatrice González y José Hernández, demandantes contra Google debido al asesinato de su hija en los atentados de París Reuters

El futuro de las redes sociales, sus escasas obligaciones a la hora de retirar contenido conflictivo de la Red o conservarlo, está en juego en los Estados Unidos. Entre este martes, 21 de febrero, y mañana, se desarrollarán en el Tribunal Supremo de Estados Unidos ... los casos de González contra Google y Twitter contra Taamneh. Dos juicios que pueden transformar completamente el funcionamiento de los grandes gigantes de Internet en el país norteamericano.

El primero, parte de la muerte de la joven estadounidense Nohemi González, que fue asesinada en los atentados terroristas ocurridos en París en el año 2015. En 2016, su padre demandó a Google y otras empresas tecnológicas, a las que acusó de difundir contenido capaz de radicalizar y convertir a los usuarios en terroristas.

En la denuncia presentada por la familia González se llama la atención, además, sobre la proliferación por la plataforma YouTube, propiedad de la matriz de Google, Alphabet, de contenido creado por ISIS. Este no solo no fue eliminado por el sitio, sino que, además, habría llegado a ser recomendado a algunos usuarios por el algoritmo.

El segundo, el caso que enfrenta a Twitter contra Taamneh, la familia del ciudadano jordano Nawras Alassaf, fallecido en 2017 durante un ataque de ISIS en la ciudad turca de Estambul, acusa a aplicaciones y servicios como Twitter, Google y Facebook de no controlar el contenido terrorista en sus plataformas. Básicamente, los responsabiliza de no hacer lo suficiente para evitar que casos como el de Alassaf se produzcan, en línea con la demanda presentada por la familia González.

En caso de que los dos casos prosperen, y el tribunal Supremo falle en contra de los intereses de las grandes tecnológicas, la famosa Sección 230 de la ley de Decencia de las Comunicaciones, que data de 1996, corre peligro de ser abolida por completo.

Precisamente, esta es la norma que protege a las plataformas en línea como Facebook, Instagram y YouTube de dar explicaciones, o incluso tener algún tipo de responsabilidad, por la moderación de contenido en su interior. En ella se establece, específicamente, que «ningún proveedor o usuario de un servicio informático interactivo será considerado como editor o difusor de de información facilitada por otro proveedor de contenidos informativos».

«Las redes sociales tienen que decidirse, porque moderan y recomiendan contenidos por su cuenta. Por lo que tienen poderes editoriales y censuran. Por tanto, tiene sentido que comiencen a responder legalmente por las decisiones que toman y por lo que recomiendan a los internautas», dice Borja Adsuara, abogado especializado en cuestiones digitales y expresidente de Red.es.

En caso de que la Sección 230 sea eliminada, las empresas podrían terminar teniendo la obligación de eliminar contenido problemático. Desde las tecnológicas llaman la atención sobre la posibilidad de que esto provoque que se acabe moderando de más, lo que puede provocar que se censure la opinión de internautas y, al final, se ponga en riesgo la libertad de expresión en Internet.

«Exponer a las empresas a la responsabilidad por las decisiones de organizar y filtrar contenido de entre la amplia gama de contenido publicado en línea las incentivaría a simplemente eliminar más contenido de formas que el Congreso nunca pretendió», afirma Jennifer Newstead, directora jurídica de Meta, matriz de las aplicaciones Facebook, Instagram y WhatsApp.

Por su parte, Google niega que su trabajo referente a la retirada de contenido o el funcionamiento de sus algoritmo haya promocionado la expansión del terrorismo. En sus alegaciones, la empresa sostiene que los argumentos de la familia González están «gastados» y se basan en la «especulación».

Como señala Sergio Carrasco Mayans, abogado especializado en protección de datos y tecnología actualmente, en el país norteamericano, las grandes plataformas de Internet tienen una actitud «absolutamente pasiva» a la hora de moderar contenido. «Solo tienen que eliminar publicaciones ilegales cuando se lo comunica un juez», señala el jurista.

En caso de que la Sección 230 dejase de proteger a las tecnológicas, y comenzasen a ser responsables del contenido que publican los usuarios, «lo que puede pasar es que les obliguen a ser más diligentes y comiencen a hacer de policías, aunque de vez en cuando se les escapen cosas»: «Habrá que ver qué obligaciones tienen de retirada de contenido en función de lo que apruebe el Supremo».

En la UE tenemos nueva norma

En la Unión Europea, la normativa respecto a las obligaciones de las redes sociales y plataformas digitales respecto al contenido que se publica en línea es distinta. «La ley es algo abstracta. Aquí el prestador de servicios, la red social o el buscador, está obligado a retirar el contenido que lesiona los derechos de terceros siempre y cuando tengan conocimiento efectivo de su existencia», explica en conversación con ABC Samuel Parra, jurista especializado en asuntos tecnológicos.

Hace unos meses, la UE aprobó la Ley de Servicios Digitales (DSA). A partir de 2024, año en el que comenzará a ser efectiva, obligará a las grandes plataformas a comenzar a responder por el contenido ilegal que los usuarios vierten en su interior. De este modo, sitios como Facebook, Google o Twitter tendrán que retirar todo aquello que sea considerado ilegal tan pronto como conozcan su existencia. «Lo que es ilegal fuera de línea también debe ser ilegal online», afirmó la presidenta de la Comisión Europea, Ursula von der Leyen, tras la aprobación de la ley.

La normativa, además, crea nuevos mecanismos a través de los cuáles se puede avisar a una 'app' o a un buscador sobre la existencia de contenido problemático. «Con la DSA, en Europa no solo un juez puede obligar a una red social a eliminar un contenido de Internet. Hay otras autoridades que te pueden comunicar que un contenido es ilegal (entidades que hayan demostrado experiencia y competencia especiales o autoridades de los Estados miembro)», explica Sergio Carrasco Mayans. Los usuarios, según lo dispuesto por la UE, también tendrán «la facultad de denunciar los contenidos ilícitos de manera sencilla y eficaz».

Pase lo que pase en Estados Unidos, independientemente de cómo falle el Tribunal Supremo, Carrasco no espera que afecte en absoluto a la nueva normativa europea ya que, como señala «es suficientemente garante». Borja Adsuara tampoco cree que vaya a haber cambios: «Hemos tardado 20 años en conseguir la DSA, va a seguir ahí durante un buen tiempo».

La norma entró en vigor a finales de 2022 y hace escasos días obligó a que las grandes tecnológicas desvelasen el número de usuarios que tienen en territorio perteneciente a la Unión Europea.

Artículo solo para suscriptores

Accede sin límites al mejor periodismo

Tres meses 1 Al mes Sin permanencia Suscribirme ahora
Opción recomendada Un año al 50% Ahorra 60€ Descuento anual Suscribirme ahora

Ver comentarios