<img src="https://queue.simpleanalyticscdn.com/noscript.gif?collect-dnt=true" alt="" referrerpolicy="-when-downgrade"> Facebook jugó con tus emociones 
NeoTeo
Nico Varonas

Facebook jugó con tus emociones 

Facebook jugó con tus emociones 

Lo que suena como algo de una obra de ficción es algo real y se puede leer en un paper publicado en las Actas de la Academia Nacional de Ciencias. Allí se explica cómo manipulando el contenido que veían en su sección de Noticias (feed), los s hacían publicaciones más negativas o positivas. Sin avisarte de tu participación y con la excusa de evidenciar el contagio emocional a través de las redes sociales, Facebook jugó con tus emociones. Y con las mías, y con las de 679.000 personas más.

Facebook ha sido acusado de invadir la privacidad de los s y los s, aunque con su inercia pragmática característica, ha demostrado cierto rechazo a la forma en la que se maneja la compañía. Con los años, Facebook cambió sus métodos y ha dado algo de control a los s sobre su contenido y sobre aquello que quieren o no quieren ver. Sin embargo, cuando parecía que las aguas estaban calmas y que no había cambios de diseño e interfaz que pudieran poner de mal humor a los s, se publica un paper en el Proceedings of the National Academy of Sciences (PNAS), en donde abiertamente se reconoce que Facebook jugó con tus emociones. ¿Cómo? A través de un experimento psicológico que analizaba cómo los participantes respondían conductualmente al contenido positivo o negativo en su Facebook, pero sin avisarles nada al respecto ni darles opción de participación o no.

Sin que lo supiéramos, más de 685.000 s de Facebook hemos sido parte de un experimento psicológico organizado por la compañía fundada por Mark Zuckerberg. A partir de 2012, Facebook cambió el tono del servicio de noticias de los s para resaltar mensajes positivos o negativos de sus amigos y evaluó cómo reaccionábamos ante ese contenido en nuestro feed de noticias. Utilizando palabras claves específicas (recuerdas este artículo que escribimos hace unas semanas), Facebook categorizaba los post de los s y los segregaba según su positividad o negatividad. La idea era analizar qué tan influenciado podíamos ser por el humor expresado en las publicaciones de nuestros amigos, y Facebook descubrió que existe un “contagio emocional”.

Cuando se redujeron las expresiones positivas, las personas produjeron un menor número de mensajes positivos y más mensajes negativos. Cuando se redujeron las expresiones negativas, se produjo el patrón opuesto. Estos resultados indican que las emociones expresadas por otros en Facebook influyen en nuestras propias emociones, que constituyen evidencia experimental de escala masiva para asegurar que hay contagio [emocional] a través de las redes sociales. [...] se consolidan los conceptos previamente manifestados, en los que se intentaba demostrar que existe contagio de emociones a través de una red, sea una red social virtual o una red social física, como casi cualquier evento masivo en el que confluyan gustos e intereses.

El documento publicado también señaló que los investigadores nunca vieron el contenido de los mensajes reales. Para el estudio se basaron en una máquina que contó la ocurrencia de palabras positivas y negativas en más de tres millones de actualizaciones de estado. Estos mensajes contenían un total de 122 millones de palabras; cuatro millones de ellas fueron positivos (3,6%) y 1,8 millones fueron negativas (1,6%). Al final del experimento, los investigadores llegaron a la conclusión de que el “humor” de las noticias determinó la reacción/estado de ánimo del en sus próximos días en un porcentaje bajo, pero con una influencia que no puede refutarse según los datos.

Facebook jugó con tus emociones 
Facebook poniendo la lupa en lo que hacemos

Las excusas y las disculpas

Adam Kramer, científico social y líder del experimento dijo que cuando se unió a la empresa en 2012 aceptó el trabajo porque “los datos de Facebook constituyen el campo de estudio más grande de la historia del mundo.” Así y todo, al ver la reacción negativa de las personas al enterarse de que fueron parte de un experimento social secreto (tan significativo para sus vidas según los datos), emitió un pedido de disculpas en su página de Facebook personal. La excusa para realizar el estudio fue que estaban preocupados ante la posibilidad de que el contenido negativo se contagie y entonces los s perdiesen ganas de entrar a Facebook.

Si te lo estás preguntando, el experimento es legal. ¿Ético? Ni por asomo. Al respecto, Facebook afirma que los s dieron su consentimiento para tal experimento cuando acordaron los términos y condiciones de los servicios de la empresa (esas que NADIE lee), aunque en realidad los s aceptamos ser parte de estudios para mejorar el producto, no para publicar papers científicos. Además, Facebook añade que estos experimentos les permiten mejorar sus servicios, que a su vez será beneficioso para sus propios clientes y s. O eso es lo que nos quieren hacer creer. Cuéntanos cómo te ha caído esta noticia, si sientes que lo que postean otros te influye de algún modo y qué crees que debería hacer Facebook para resarcir a sus engañados s y recuperar su confianza, si es que alguna vez la tuvo.

Fuente:

NewScientist

Etiquetas

#estudio
avatar

...recuperar la confianza en facebook, si es que alguna vez la tuvo.

Excelente ese último renglón.

avatar
avatar

me siento vergon

avatar
avatar

Facebook es una gran herramienta para estar comunicado con tus amigos, la utilizo para hablar con ellos y quedar, hasta ahí. Me repugna seguir utilizandola debido a como utilizan nuestra información, pero bueno... no hay otra opción que la pueda superar.

avatar
avatar

........por eso no tengo face.....

avatar
avatar

que sufrimiento deben tener todos los que usan feisbuck

avatar

Debes iniciar sesión para publicar un comentario.