Facebook siempre «manipula» a sus usuarios
Material publictario de Facebook - flickr por Ricky-lai/cc
polémica

Facebook siempre «manipula» a sus usuarios

La publicación de un estudio realizado por la red social y académicos sobre la manipulación del «news feed» de personas sin su consentimiento ha causado revuelo

Actualizado:

El experimento que realizó Facebook entre sus usuarios sigue coleando. Duró solo una semana pero sus implicaciones han hecho reflexionar a mucha gente sobre la intrusión de las compañías desarrolladoras de redes sociales en las cuentas de sus usuarios. Los expertos señalan que este tipo de actuaciones es más común de lo que nos pensamos.

«Una versión más intrusiva»La red social lo hizo sin el conocimiento de sus usuarios y aunque ya ha pedido disculpas, se ha armado gran revuelo sobre la manipulación que ha hecho la red social de Mark Zuckerberg. Muchos acusan a las universidades implicadas con el estudio de haber permitido la manipulación. Algunas, como la Universidad de Cornell, ya han comunicado que aunque hay un profesional de su casa de estudios en informe, la Universidad no se encargó de revisar el mismo.

Este lunes se dio a conocer un estudio realizado por Facebook y varios académicos en el que se reconoció la manipulación de la sección de «Noticias» de 690.000 usuarios para comprobar una teoría de «contagio emocional». Deliberadamente se enviaba a estos usuarios publicaciones negativas o positivas para saber si esto afectaba su estado anímico.

David Weinberger, investigador del Centro Berkman para Internet y Sociedad de la Universidad de Harvard, ha señalado en un artículo de opinión publicado en la cadena CNN, que la manipulación de Facebook, no es nueva, por lo que no debería sorprender, aunque sí molestar. «El experimento solo ha sido una versión más intrusiva de lo que la compañía hace cada vez que nosotros visitamos nuestra página de Facebook», explica en el artículo.

Algoritmos

No le falta razón. Facebook utiliza algoritmos para alimentar la sección de «Noticias» (News Feed). A lo largo de su historia como proveedor de servicios online ha cambiado ese algoritmo, haciendo énfasis en algunos aspectos sobre otros.

El News Feed está configurado por relevancia Por ejemplo, en abril de este año, anunció más cambios en ese News Feed para combatir las publicaciones que pedían «Me gusta» o que eran cebo de spam. La forma de luchar contra dichas publicaciones es la modificación de ese algoritmo. Otras veces los ha cambiado para dar mayor importancia a publicaciones de medios relevantes, o para ubicar más arriba en la cronología publicaciones que han sido compartidas por muchos «amigos».

Susan Fiske, profesora de la Universidad de Princeton que se encargó de editar el estudio que salió publicado, ha señalado en una entrevista con «The Atlantic» que al principio tuvo dudas a la hora de aceptar la edición. «Me preocupé hasta que consulté con los autores y me dijeron que su junta de revisiones institucional había aprobado la investigación y, aparentemente, sobre la base de que Facebook manipula el News Feed de sus usuarios todo el tiempo. Entiendo que las personas tengas sus dudas», dijo.

El modelo de negocio de Facebook se basa en esas modificaciones. Por ejemplo, el botón de «Me Gusta» es una de las herramientas que tiene a la hora de saber si una publicación es popular. Actualmente el algoritmo de Facebook para las «Noticias» está configurado por defecto por relevancia y los usuarios pueden configurar en un botón si quieren ver las noticias por relevancia o por orden de publicación. ( En la columna izquierda, Noticias, pincha en la flecha y selecciona la opción de preferencia).

«A/B»

Weinberger apunta que el experimento no ha sido más que una versión del tipo de prueba «A/B», que suelen utilizar muchos proveedores de servicios en internet para «prestar una mejor experiencia de usuario».

Este tipo de prueba es muy utilizada por Amazon. Relata Weinberger que durante años, la tienda online de Jeff Bezos aplica cambios en sus páginas para probar. Por ejemplo, a un número de usuarios les muestra un anuncio de descuento en un lado de la página, y a otro grupo de consumidores se los muestra en otro lugar. De ahí puede deducir, tras los clics recibidos, qué sitio es mejor a la hora de colocar un anuncio.

Para Weinberger lo preocupante es que Facebook toma decisiones sobre lo que vamos a conocer de nuestros amigos porque le interesa para su negocio. Solo en una menor proporción funciona en pro de los ciudadanos y la sociedad, opina Weinberger. Por otra parte, aunque haya mucho bombo sobre el tema, expertos en publicidad apuntan que no pasará nada, y Facebook seguirá funcionando con normalidad.

«Las personas aprecian los conexiones que tienen a través de Facebook, y con el tiempo tienden a ignorar este asunto», dice a IBTimes, Debra Aho Williamson, de eMarketer. «No creo que la gente vaya a dejar de usar Facebook porque les haya preocupado un pequeño experimento de sentimientos», ha dicho Mike Vorhaus, presidente de Magid Advisors a IBTimes.

Efe destaca que el estudio ha causado críticas, en las que se acusa a la compañía de utilizar a sus usuarios como cobayas de laboratorio e incluso se ha dicho que ha podido tener efectos negativos para usuarios con tendencias depresivas. Destaca, sin embargo, que la política de privacidad de Facebook contempla que la red social pueda usar los datos de sus usuarios para este tipo de investigaciones.

Con los datos de Facebook, el estudio fue llevado a cabo por Adam Kramer, del equipo de investigación de datos de Facebook; Jamie Guillory, investigadora de la Universidad de California en San Francisco; y Jeffrey Hancock, profesor en al Universidad de Cornell.