Lo que suena como algo de una obra de ficción es algo real y se puede leer en un paper publicado en las Actas de la Academia Nacional de Ciencias. Allí se explica cómo manipulando el contenido que veían en su sección de Noticias (feed), los usuarios hacían publicaciones más negativas o positivas. Sin avisarte de tu participación y con la excusa de evidenciar el contagio emocional a través de las redes sociales, Facebook jugó con tus emociones. Y con las mías, y con las de 679.000 personas más.
Facebook ha sido acusado de invadir la privacidad de los usuarios y los usuarios, aunque con su inercia pragmática característica, ha demostrado cierto rechazo a la forma en la que se maneja la compañía. Con los años, Facebook cambió sus métodos y ha dado algo de control a los usuarios sobre su contenido y sobre aquello que quieren o no quieren ver. Sin embargo, cuando parecía que las aguas estaban calmas y que no había cambios de diseño e interfaz que pudieran poner de mal humor a los usuarios, se publica un paper en el Proceedings of the National Academy of Sciences (PNAS), en donde abiertamente se reconoce que Facebook jugó con tus emociones. ¿Cómo? A través de un experimento psicológico que analizaba cómo los participantes respondían conductualmente al contenido positivo o negativo en su Facebook, pero sin avisarles nada al respecto ni darles opción de participación o no.
Sin que lo supiéramos, más de 685.000 usuarios de Facebook hemos sido parte de un experimento psicológico organizado por la compañía fundada por Mark Zuckerberg. A partir de 2012, Facebook cambió el tono del servicio de noticias de los usuarios para resaltar mensajes positivos o negativos de sus amigos y evaluó cómo reaccionábamos ante ese contenido en nuestro feed de noticias. Utilizando palabras claves específicas (recuerdas este artículo que escribimos hace unas semanas), Facebook categorizaba los post de los usuarios y los segregaba según su positividad o negatividad. La idea era analizar qué tan influenciado podíamos ser por el humor expresado en las publicaciones de nuestros amigos, y Facebook descubrió que existe un “contagio emocional”.
Cuando se redujeron las expresiones positivas, las personas produjeron un menor número de mensajes positivos y más mensajes negativos. Cuando se redujeron las expresiones negativas, se produjo el patrón opuesto. Estos resultados indican que las emociones expresadas por otros en Facebook influyen en nuestras propias emociones, que constituyen evidencia experimental de escala masiva para asegurar que hay contagio [emocional] a través de las redes sociales. […] se consolidan los conceptos previamente manifestados, en los que se intentaba demostrar que existe contagio de emociones a través de una red, sea una red social virtual o una red social física, como casi cualquier evento masivo en el que confluyan gustos e intereses.
El documento publicado también señaló que los investigadores nunca vieron el contenido de los mensajes reales. Para el estudio se basaron en una máquina que contó la ocurrencia de palabras positivas y negativas en más de tres millones de actualizaciones de estado. Estos mensajes contenían un total de 122 millones de palabras; cuatro millones de ellas fueron positivos (3,6%) y 1,8 millones fueron negativas (1,6%). Al final del experimento, los investigadores llegaron a la conclusión de que el “humor” de las noticias determinó la reacción/estado de ánimo del usuario en sus próximos días en un porcentaje bajo, pero con una influencia que no puede refutarse según los datos.
Las excusas y las disculpas
Adam Kramer, científico social y líder del experimento dijo que cuando se unió a la empresa en 2012 que aceptó el trabajo porque “los datos de Facebook constituyen el campo de estudio más grande de la historia del mundo.” Así y todo, al ver la reacción negativa de las personas al enterarse de que fueron parte de un experimento social secreto (tan significativo para sus vidas según los datos), emitió un pedido de disculpas en su página de Facebook personal. La excusa para realizar el estudio fue que estaban preocupados ante la posibilidad de que el contenido negativo se contagie y entonces los usuarios perdiesen ganas de entrar a Facebook.
Si te lo estás preguntando, el experimento es legal. ¿Ético? Ni por asomo. Al respecto, Facebook afirma que los usuarios dieron su consentimiento para tal experimento cuando acordaron los términos y condiciones de los servicios de la empresa (esas que NADIE lee), aunque en realidad los usuarios aceptamos ser parte de estudios para mejorar el producto, no para publicar papers científicos. Además, Facebook añade que estos experimentos les permiten mejorar sus servicios, que a su vez será beneficioso para sus propios clientes y usuarios. O eso es lo que nos quieren hacer creer. Cuéntanos cómo te ha caído esta noticia, si sientes que lo que postean otros te influencia de algún modo y qué crees que debería hacer Facebook para resarcir a sus engañados usuarios y recuperar su confianza, si es que alguna vez la tuvo.