Sans les prévenir, le réseau social Facebook a manipulé en Janvier 2012 les émotions de centaines de milliers de ses utilisateurs. Cette manipulation a pris place dans le cadre d’une recherche sur la diffusion des émotions. Si les résultats de la recherche sont intéressants, cela montre aussi que Facebook se sent libre d’agir à sa guise sur ses utilisateurs.
En Janvier 2012, une expérimentation menée sur le réseau social Facebook a manipulé les émotions de centaines de milliers de ses utilisateurs sans qu’ils aient été mis au courant. Ces utilisateurs ont été rendus tristes ou gais selon le filtrage des nouvelles de leurs amis qui leur étaient montrées. L’étude détaillée a été publiée dans le journal de « the Proceedings of the National Academy of Sciences of the United States of America (PNAS). »
Le droit de réaliser de telles expérimentations
On découvre pour l’occasion que Facebook a le droit de réaliser de telles expérimentations, selon leurs conditions générales d’utilisation. Nous sommes des objets de test pour la firme californienne. Facebook peut donc nous rendre heureux ou triste à son gré. De là à imaginer qu’ils puissent nous manipuler pour nous faire acheter certains produits spécifiquement, il n’y a pas un grand pas à franchir.
Ceci dit, l’étude – côté scientifique – montre des résultats étonnants. Ainsi elle révèle que l’usage des mots simplement contribue à rendre triste ou gai, et qu’il n’est pas nécessaire de passer par des interactions non verbales pour diffuser un état émotionnel, un réseau social suffit. La recherche a été menée par le Data Scientist Adam Kramer, travaillant pour Facebook.
Pas de sentiment négatif généré par la comparaison
Autre point, certains experts pensaient que la lecture de messages positifs de la part de ses amis rendait triste, par un effet de comparaison avec sa propre situation. En fait, c’est l’effet inverse qui aura été montré. Dernier élément, les personnes ayant été exposées à moins de messages émotionnels durant l’expérimentation, avaient tendance à moins s’exprimer sur le réseau social dans les jours qui ont suivi.
Dans le déroulement du test, quand les nouvelles tristes étaient en nombre supérieur aux nouvelles gaies, les utilisateurs suivaient le mouvement et publiaient des nouvelles tristes. A l’inverse, quand les nouvelles gaies étaient supérieures en nombre aux nouvelles tristes, le moral était au beau fixe, et les nouvelles gaies devenaient supérieures pour tous.
Le fil de news manipulé
L’expérimentation a été menée durant une semaine, du 11 au 18 Janvier, sur 689 003 utilisateurs de Facebook en anglais. Leur fil de nouvelles était manipulé pour montrer certains types de posts. Les textes des posts n’étaient pas modifiés.
C’est le fil de news qui était manipulé car le fil de news est géré par un algorithme de Facebook qui filtre les flux afin de présenter les nouvelles les plus pertinentes pour le lecteur. L’étude a séparé les utilisateurs en deux groupes. Le premier groupe recevait des news plutôt négatives et le second des news plutôt négatives.
Photo : source Facebook.
Une architecture Hadoop pour filtrer les posts
Le fil de news de chaque utilisateur embarqué à son insu dans cette expérimentation était filtré par l’algorithme de Facebook. Cet algorithme tenait compte du fait que les posts étaient considérés soit comme négatifs soit comme positifs s’ils contenaient au moins un mot positif ou négatif.
C’est la définition du « Linguistic Inquiry and Word Count software » (LIWC2007), un logiciel de comptage de mots, qui a été employée. Ce système est corrélé à l’état physiologique des personnes et a déjà été utilisé dans des recherches précédentes.
Le logiciel LIWC a été adapté pour fonctionner sur un système informatique Hadoop et MapReduce et sur le système de filtrage du fil de news de Facebook. Aucun texte n’était vu par les chercheurs. Ce qui selon ces derniers est compatible avec l’usage des données par Facebook tel que défini dans ses conditions générales d’utilisation auxquelles ses utilisateurs souscrivent quand ils s’inscrivent au réseau social.
> Le premier groupe recevait des news plutôt négatives et le second des news plutôt négatives.
une petite erreur sans doute